大型モデルのセキュリティ
-
大模型安全:开源框架Guardrails安全护栏介绍与解析
OpenGuardrails是首个完整开源的企业级大模型安全护栏平台,支持119种语言、统一LLM架构、可配置敏感度策略、多云部署。本报告深度解析其核心技术创新、应用场景、部署模式、性能对标与未来发展,为金融、医疗、法律等受管制行业的AI应用提供安全合规指引。通过分析OpenGuardrails的可配置策略、高效模型设计与生产级基础设施,揭示下一代AI安全护栏的发展方向。
-
CSO:最高セキュリティ責任者が教えるAIデータのフルリンク・セキュリティ・ガイド
最高セキュリティ責任者(CSO)は、前例のない課題に直面しています。AIシステムは、既存のデータリスクを増幅させると同時に、データポイズニング、モデルリバースエンジニアリング、サプライチェーン汚染など、まったく新しい脅威を導入しています。本ガイドは、NIST AIリスク管理フレームワーク(AI RMF)、Google Secure AIフレームワーク(SAIF)、および業界のプラクティスに基づき、CSOに実行可能なデータセキュリティガバナンスシステムを提供します。
-
CVE-2025-68664 : ラージモデルオープンソースフレームワーク LangChain のシリアライズインジェクション脆弱性レポート
オープンソースのメガモデルLangChainは、Cyata Securityのセキュリティ研究者Yarden Porat氏によって発見された、シリアライズ/デシリアライズ処理において「lc」キーが欠落している深刻度レベルのシリアライズインジェクションの脆弱性(CVE-2025-68664)を公開した。この脆弱性は、Cyata Security 社のセキュリティ研究者 Yarden Porat 氏によって発見されたもので、シリアライズ/デシリアライズ処理において「lc」キーが欠落していることが原因で、攻撃者は環境変数を漏洩させたり、任意のオブジェクトをインスタンス化したり、あるいはプロンプトインジェクションによってリモートからコードを実行したりすることが可能です。この脆弱性は、バージョン0.3.81以前、およびバージョン1.0.0-1.2.5の範囲内のLangChain Coreのすべてのデプロイメントに影響し、12月24日に公式パッチバージョン1.2.5と0.3.81がリリースされ、同時にデフォルトのセキュリティポリシーが強化されました。
-
人工知能セキュリティの深層防御:Google SAIF AIセキュリティフレームワークの解説
大規模言語モデル(LLM)や生成型人工知能(GenAI)が企業アプリケーションに広く浸透する中、決定論的論理に基づく従来のソフトウェアセキュリティパラダイムでは、モデルの反転、データポイズニング、キューワードインジェクションといった新たな確率的脅威に対処できなくなっている。2023年に開始されるグーグルのセキュアAIフレームワーク(SAIF)は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性の融合を目指す体系的な防御アーキテクチャを提案している。グーグルが2023年に立ち上げる「セキュアAIフレームワーク(SAIF)」は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性を組み合わせることを目的とした体系的な防御アーキテクチャを提案している。本稿では、アーキテクチャ設計の観点からSAIFの6つの中核となる柱、生態学的シナジーメカニズム、進化の道筋を分析し、企業レベルのAIセキュリティシステムを構築するための理論的・実践的な参考資料を提供する。
-
人工知能(AI)ビッグモデルのセキュリティ・リスクと防御徹底レポート
本レポートは、AIアシスタント、エージェント、ツール、モデル、ストレージからなるAI AIクリティカルリンクから構成される5つのコア攻撃サーフェスに基づいており、ターゲットとなるセキュリティリスク、防御アーキテクチャ、およびソリューションが示されている。