世界16か国が安全な人工知能システム開発のためのガイドラインを共同発表

システムが最初から作成されているか、他社が提供するツールやサービスに基づいて構築されているかに関係なく、人工知能 (AI) を使用するシステム プロバイダー向けのガイダンス。

英国と米国、および他の 16 か国の国際パートナーがセキュリティを解除しました。AI (AI) システム開発の新しいガイド。

アメリカ合衆国サイバーセキュリティそしてインフラストラクチャセキュリティ庁(CISA)は、「このアプローチは、セキュリティの成果に対する顧客の所有権を優先し、抜本的な透明性と説明責任を採用し、設計によるセキュリティを最優先事項とする組織構造を確立するものである」と述べた。

国家サイバーセキュリティセンター(NCSC)は、その目標は人工知能のサイバーセキュリティを向上させ、テクノロジーが安全な方法で設計、開発、展開されるように支援することであると付け加えた。

このガイダンスは、人工知能によってもたらされるリスクを管理するための米国政府の継続的な取り組みにも基づいており、新しいツールが公開前に完全にテストされること、偏見や差別、プライバシーの懸念などの社会的危害に対処するための適切な保護措置が講じられていることを保証します。そして、消費者が AI によって生成された素材を識別するための信頼できる方法を確立します。

この取り組みでは、企業に対し、AI システムの脆弱性を迅速に発見して修正できるよう、バグ報奨金制度を通じてサードパーティによる自社の AI システムの脆弱性の発見と報告を促進することも義務付けています。

NCSCは、最新のガイダンスは「開発者がサイバーセキュリティがAIシステムの安全性にとって重要な前提条件であり、最初から開発プロセス全体を通じて不可欠な部分であること、いわゆる『セキュア・バイ・デザイン』アプローチであることを保証するのに役立つ」と述べた。

これには安全設計も含まれます。安全な開発、安全な導入、安全な運用。AI システム開発ライフサイクルのすべての重要な領域をカバーしており、組織はシステムに対する脅威をモデル化し、サプライ チェーンとインフラストラクチャを保護する必要があります。

これらの機関は、モデルの分類に影響を与えたり、ユーザーが不正なアクションや抽出を実行できるようにするなど、さまざまな方法で意図しない動作を引き起こすように設計された人工知能および機械学習 (ML) システムに対する敵対的攻撃に対抗することも目的としていると述べています。機密情報の。

NCSC は次のように述べています。「大規模言語モデル (LLM) の分野でのヒント インジェクション攻撃や、トレーニング データやユーザー フィードバックの意図的な破損 (「データ ポイズニング」として知られています) など、これらの影響を達成する方法は数多くあります。

エグゼクティブサマリー

このドキュメントは、システムが最初から作成されたものであるか、他社が提供するツールやサービスに基づいて構築されているものであるかにかかわらず、人工知能 (AI) を使用するシステムのプロバイダー向けのガイダンスを提供します。これらのガイドラインを実装することで、プロバイダーは期待通りに動作し、必要なときに利用でき、機密データを権限のない者に漏らすことなく機能する AI システムを構築することができます。

このドキュメントは主に、組織がホストするモデルを使用するか、外部のアプリケーション プログラミング インターフェイス (API) を使用する AI システム プロバイダーを対象としています。データ サイエンティスト、開発者、管理者、政策立案者、リスク オーナーを含むすべての関係者に、AI システムの設計、開発、展開、運用について十分な情報に基づいた意思決定を行えるよう、これらのガイドラインをお読みいただくことをお勧めします。

ガイドについて

人工知能システムは社会に多くの利益をもたらす可能性を秘めています。ただし、AI の可能性を最大限に活用するには、AI が安全かつ責任ある方法で開発、導入、運用される必要があります。

AI システムには新たなセキュリティ上の脆弱性が存在し、標準的なサイバーセキュリティの脅威と並行して考慮する必要があります。開発が急速に行われる場合 (人工知能の場合のように)、セキュリティは二次的に考慮されることがよくあります。セキュリティは、開発段階だけでなく、システムのライフサイクル全体にわたって、中核的な要件である必要があります。

この目的を達成するために、このガイドでは、人工知能システムの開発ライフサイクル内の 4 つの主要領域を、安全な設計、安全な開発、安全な導入、安全な運用とメンテナンスに細分化しています。セクションごとに、組織の AI システム開発プロセスの全体的なリスクを軽減するのに役立つ考慮事項と緩和策を推奨します。

1. 安全設計

このセクションには、AI システム開発ライフサイクルの設計フェーズに適用されるガイダンスが含まれています。リスクと脅威のモデリングを理解するだけでなく、システムやモデルを設計する際に考慮する必要がある特定のトピックやトレードオフについても説明します。

2. セキュリティ開発

このセクションには、サプライ チェーンのセキュリティ、文書化、資産および技術的負債の管理など、AI システム開発ライフサイクルの開発段階に適用されるガイダンスが含まれています。

3. 安全な展開

このセクションには、インフラストラクチャとモデルを損傷、脅威、損失から保護すること、インシデント管理プロセスの開発、責任あるリリースなど、AI システム開発ライフサイクルの展開フェーズに適用されるガイダンスが含まれています。

4. 安全な操作と保守

このセクションには、AI システム開発ライフサイクルのセキュリティ運用フェーズに適用されるガイダンスが含まれています。ログ記録と監視、更新管理、情報共有など、システム導入後に特に関連するアクションに関するガイダンスを提供します。

このガイダンスは、「デフォルトでセキュア」アプローチに従っており、NCSC のセキュア開発および導入ガイドライン、NIST のセキュア ソフトウェア開発フレームワーク、および CISA、NCSC、および国際的なサイバー機関によって公開されている「セキュリティ バイ デザイン原則」で定義されている実践と密接に連携しています。

考慮すべき要素:

  • 顧客の安全結果に責任を負います
  • 徹底的な透明性と説明責任を受け入れる
  • 設計によるセキュリティを企業のビジネス最優先事項とするための組織構造とリーダーシップを確立する

安全な人工知能システム開発ガイドのダウンロード:

残りのコンテンツを視聴するにはロックを解除する必要があります

ロックを解除すると全文が表示されます

原文、著者:lyon、転載する場合は出典を明記してください:https://cncso.com/jp/release-guidelines-for-secure-artificial-intelligence-system-development.html

のように (2)
前の 2023年11月27日午後9時
2023年11月29日午後10時01分

関連する提案