大型モデルのセキュリティ

  • AIセキュリティ:ATT&CK手法に基づく企業向けAIセキュリティシステムの構築

    本稿では、AIセキュリティ脅威マトリックスをコアフレームワークとし、成熟したATT&CK手法に基づき、データポイズニング、モデル抽出、プライバシー漏洩、敵対的サンプル、キューワードインジェクションのような主要な攻撃手法など、AIシステムが直面するライフサイクル全体のセキュリティ脅威を体系的に詳しく説明し、AIエンジニア、セキュリティエンジニア、CSOに専門的な技術を提供するために、対応する防御戦略と企業向け着陸ソリューションを提案する。参考文献

    2026年1月9日付の書簡
    03.6K0
  • ビッグモデルのセキュリティ:オープンソース・フレームワークGuardrailsセキュリティ・フェンスの紹介と分析

    OpenGuardrailsは、初の完全なオープンソースエンタープライズグレードの大規模モデルセキュリティガードレールプラットフォームであり、119の言語、統一されたLLMアーキテクチャ、設定可能な感度ポリシー、マルチクラウド展開をサポートしています。本レポートでは、OpenGuardrailsの中核となる技術革新、アプリケーションシナリオ、導入モデル、パフォーマンスベンチマーク、今後の展開について詳細に分析し、金融、医療、法務などの規制産業におけるAIアプリケーションのセキュリティコンプライアンスガイドラインを提供します。OpenGuardrailsの設定可能なポリシー、効率的なモデル設計、プロダクショングレードのインフラストラクチャを分析することで、次世代のAIセキュリティ・ガードレールの方向性を明らかにしている。

    2026年1月6日付の書簡
    05.1K0
  • CSO:最高セキュリティ責任者が教えるAIデータのフルリンク・セキュリティ・ガイド

    最高セキュリティ責任者(CSO)は、前例のない課題に直面しています。AIシステムは、既存のデータリスクを増幅させると同時に、データポイズニング、モデルリバースエンジニアリング、サプライチェーン汚染など、まったく新しい脅威を導入しています。本ガイドは、NIST AIリスク管理フレームワーク(AI RMF)、Google Secure AIフレームワーク(SAIF)、および業界のプラクティスに基づき、CSOに実行可能なデータセキュリティガバナンスシステムを提供します。

    2025年12月31日
    04.5K0
  • CVE-2025-68664 : ラージモデルオープンソースフレームワーク LangChain のシリアライズインジェクション脆弱性レポート

    オープンソースのメガモデルLangChainは、Cyata Securityのセキュリティ研究者Yarden Porat氏によって発見された、シリアライズ/デシリアライズ処理において「lc」キーが欠落している深刻度レベルのシリアライズインジェクションの脆弱性(CVE-2025-68664)を公開した。この脆弱性は、Cyata Security 社のセキュリティ研究者 Yarden Porat 氏によって発見されたもので、シリアライズ/デシリアライズ処理において「lc」キーが欠落していることが原因で、攻撃者は環境変数を漏洩させたり、任意のオブジェクトをインスタンス化したり、あるいはプロンプトインジェクションによってリモートからコードを実行したりすることが可能です。この脆弱性は、バージョン0.3.81以前、およびバージョン1.0.0-1.2.5の範囲内のLangChain Coreのすべてのデプロイメントに影響し、12月24日に公式パッチバージョン1.2.5と0.3.81がリリースされ、同時にデフォルトのセキュリティポリシーが強化されました。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    05.0K0
  • 人工知能セキュリティの深層防御:Google SAIF AIセキュリティフレームワークの解説

    大規模言語モデル(LLM)や生成型人工知能(GenAI)が企業アプリケーションに広く浸透する中、決定論的論理に基づく従来のソフトウェアセキュリティパラダイムでは、モデルの反転、データポイズニング、キューワードインジェクションといった新たな確率的脅威に対処できなくなっている。2023年に開始されるグーグルのセキュアAIフレームワーク(SAIF)は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性の融合を目指す体系的な防御アーキテクチャを提案している。グーグルが2023年に立ち上げる「セキュアAIフレームワーク(SAIF)」は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性を組み合わせることを目的とした体系的な防御アーキテクチャを提案している。本稿では、アーキテクチャ設計の観点からSAIFの6つの中核となる柱、生態学的シナジーメカニズム、進化の道筋を分析し、企業レベルのAIセキュリティシステムを構築するための理論的・実践的な参考資料を提供する。

    2025年12月20日
    04.7K0
  • 人工知能(AI)ビッグモデルのセキュリティ・リスクと防御徹底レポート

    本レポートは、AIアシスタント、エージェント、ツール、モデル、ストレージからなるAI AIクリティカルリンクから構成される5つのコア攻撃サーフェスに基づいており、ターゲットとなるセキュリティリスク、防御アーキテクチャ、およびソリューションが示されている。

    2025年11月29日付、駐日欧州委員会代表部からの書簡
    012.4K0