人工知能(AI)セキュリティ

  • MCPガバナンス・フレームワーク:AI超大国に対抗する次世代セキュリティモデルの構築方法

    AIに実際の「実行力」を与えながら、MCPが既存のセキュリティシステムにどのように直接影響を与えることができるかに焦点を当てる。 一方では、MCPによって、LLMは統一されたプロトコルを介してツール、データベース、ビジネスシステムにアクセスできるようになり、受動的な質疑応答ボットではなく、システムを横断できるマルチエージェントに変身する。 その一方で、この能力は「ハイブリッドID」とロングリンク認証に依存しているため、ゼロトラストが要求する明確なID、最小限の権限、継続的な検証は体系的に弱体化し、コンテキストポイズニング、ツールポイズニング、サプライチェーン攻撃などの隠れた脅威は劇的に拡大する。
    セキュリティを犠牲にすることなくエージェント型AIの真価を発揮させるためには、ゲートウェイをハブとして、統合ID、きめ細かな権限付与、フルリンク監査など、MCPを中心にガバナンスを再構築する必要がある。

    2025年12月30日
    02.3K0
  • AIセキュリティ・アーキテクチャ:AI能力からセキュリティ・プラットフォームまで、現場での実践

    将来を見据えたAIセキュリティ・アーキテクチャは、技術的な問題であるだけでなく、戦略的なシフトでもある。ツール主導」から「インテリジェンス主導」へ、「事後対応」から「事前のガバナンス」へ、「人為的依存」から「人間と機械の協働」へ-こうしたシフトは、セキュリティ業界の様相を大きく変えるだろう。人為的な依存」から「人間と機械の協働」へ-これらのシフトは、セキュリティ業界の姿を大きく変えるだろう。

    AIネイティブ・セキュリティ・システムの構築に率先して取り組む企業は、脅威の検知、運用効率、コスト管理、人材確保など、さまざまな面で競争優位に立てるだろう。また、従来のツールの積み上げやルールの記述に終始する企業は、いずれ時代に淘汰されるだろう。

    AIの発展は不可逆的である。セキュリティの意思決定者は、戦略、組織、技術、投資の4つの側面からAIセキュリティ・プラットフォームの構築に着手し、この歴史的な機会を捉えるために直ちに行動すべきである。

    2025年12月30日
    07.1K0
  • CVE-2025-68664 : ラージモデルオープンソースフレームワーク LangChain のシリアライズインジェクション脆弱性レポート

    オープンソースのメガモデルLangChainは、Cyata Securityのセキュリティ研究者Yarden Porat氏によって発見された、シリアライズ/デシリアライズ処理において「lc」キーが欠落している深刻度レベルのシリアライズインジェクションの脆弱性(CVE-2025-68664)を公開した。この脆弱性は、Cyata Security 社のセキュリティ研究者 Yarden Porat 氏によって発見されたもので、シリアライズ/デシリアライズ処理において「lc」キーが欠落していることが原因で、攻撃者は環境変数を漏洩させたり、任意のオブジェクトをインスタンス化したり、あるいはプロンプトインジェクションによってリモートからコードを実行したりすることが可能です。この脆弱性は、バージョン0.3.81以前、およびバージョン1.0.0-1.2.5の範囲内のLangChain Coreのすべてのデプロイメントに影響し、12月24日に公式パッチバージョン1.2.5と0.3.81がリリースされ、同時にデフォルトのセキュリティポリシーが強化されました。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    02.9K0
  • AI Intelligence Body Security: GitHub Actions Prompt Word Injection (PromptPwnd) の脆弱性

    PromptPwndはAikido Securityの研究チームが発見した新しい脆弱性で、AIエージェントを統合したGitHub ActionsやGitLab CI/CDパイプラインに深刻な脅威をもたらします。この脆弱性は、Prompt Injectionを悪用し、悪意のあるコマンドをAIモデルに注入することで、キーの漏洩、ワークフローの操作、サプライチェーンの侵害を引き起こし、AIモデルに高特権の操作を実行させます。少なくともフォーチュン500の5社が影響を受けており、Google Gemini CLIなどの有名なプロジェクトにもこの脆弱性が確認されている。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    01.6K0
  • AIハッキング:AIエージェントの自動侵入分析

    Strixは、サイバーセキュリティテストの分野におけるパラダイムシフトを象徴するものであり、手動中心の侵入アプローチからマルチエージェント協調自動化モデルへの進化です。このツールは、LLM主導の自律的インテリジェンスにより、完全な脆弱性ライフサイクル管理(偵察、悪用、検証)を実現し、従来の手動侵入ツールやパッシブ・スキャン・ツールに比べて大幅なコスト優位性(70%以上のコスト削減)と時間効率優位性(テスト・サイクルが数週間から数時間に短縮)を示しています。しかし、その限界も同様に明らかである。ゼロデイ脆弱性悪用の成功率は10-12%に過ぎず、ビジネスロジックの脆弱性の検出能力は深刻なほど不十分であり、マルチエージェントシステム固有のセキュリティリスク(ヒントインジェクション、エージェント間の信頼乱用)には、構造化されたガバナンスフレームワークが必要である。

    2025年12月24日
    02.8K0
  • AIセキュリティ:人工知能(AI)の攻撃対象拡大とセキュリティ・ガバナンス

    多くの人は、AIがサイバーセキュリティに与える影響は、主に「より賢いツールが1つ増える」という形だと考えている。しかし、アジア太平洋地域(AP)におけるAIのサイバーセキュリティに関するこの大要を読んだ後では、より確かな結論として、AIは攻撃をより速く、より安く、より現実的なものにしている一方で、...

    2025年12月24日
    01.9K0
  • OWASPリリース:AIインテリジェンス・ボディ・セキュリティ OWASP Top 10 2026

    AIが単なるチャットボットから、自律的な計画、意思決定、実行能力を備えたエージェント型AIへと進化するにつれ、アプリケーションの攻撃対象は根本的に変化している。 従来のLLM ...

    2025年12月22日
    03.8K0
  • 人工知能セキュリティの深層防御:Google SAIF AIセキュリティフレームワークの解説

    大規模言語モデル(LLM)や生成型人工知能(GenAI)が企業アプリケーションに広く浸透する中、決定論的論理に基づく従来のソフトウェアセキュリティパラダイムでは、モデルの反転、データポイズニング、キューワードインジェクションといった新たな確率的脅威に対処できなくなっている。2023年に開始されるグーグルのセキュアAIフレームワーク(SAIF)は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性の融合を目指す体系的な防御アーキテクチャを提案している。グーグルが2023年に立ち上げる「セキュアAIフレームワーク(SAIF)」は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性を組み合わせることを目的とした体系的な防御アーキテクチャを提案している。本稿では、アーキテクチャ設計の観点からSAIFの6つの中核となる柱、生態学的シナジーメカニズム、進化の道筋を分析し、企業レベルのAIセキュリティシステムを構築するための理論的・実践的な参考資料を提供する。

    2025年12月20日
    02.4K0
  • CVE-2025-34291: Langflow AI Intelligence Body and Workflow Platform アカウント乗っ取りとリモートコード実行の脆弱性

    CVE-2025-34291は、Langflow AI Agent and Workflow Platformに見つかった重大な脆弱性で、セキュリティスコアはCVSS v4.0:9.4です。この脆弱性により、攻撃者はユーザーを悪意のあるウェブページに誘導することで、Langflowインスタンスの完全なアカウント乗っ取りとリモートコード実行(RCE)を行うことができます。

    2025年12月11日
    02.0K0
  • 人工知能(AI)ビッグモデルのセキュリティ・リスクと防御徹底レポート

    本レポートは、AIアシスタント、エージェント、ツール、モデル、ストレージからなるAI AIクリティカルリンクから構成される5つのコア攻撃サーフェスに基づいており、ターゲットとなるセキュリティリスク、防御アーキテクチャ、およびソリューションが示されている。

    2025年11月29日付、駐日欧州委員会代表部からの書簡
    010.3K0