人工知能(AI)セキュリティ
-
英国政府の人工知能(AI)安全研究所が新しいAI安全評価プラットフォームを発表
人工知能セキュリティ・リサーチは、AIモデルの安全性と性能を評価するために設計されたオープンソースのテストプラットフォームであるInspectをリリースした。Inspectは、AIモデルの中核となる知識、推論、自律性を検出し、グローバルなAIコミュニティの発展を促進し、InspectはAIセキュリティ研究の礎石となる。
-
AIGC AIセーフティ・レポート2024
AIGC(AI Generated Content)の分野では大きな進展があった。しかし、技術の進歩には常に新たな課題が付きまとい、AIGC分野ではセキュリティ問題がクローズアップされている。本レポートでは、AIGCのセキュリティリスクを深く分析し、解決策を提案する。
-
世界16か国が安全な人工知能システム開発のためのガイドラインを共同発表
システムが最初から作成されているか、他社が提供するツールやサービスに基づいて構築されているかに関係なく、人工知能 (AI) を使用するシステム プロバイダー向けのガイダンス。