人工知能(AI)セキュリティ

  • AIセキュリティ・アーキテクチャ:AI能力からセキュリティ・プラットフォームまで、現場での実践

    将来を見据えたAIセキュリティ・アーキテクチャは、技術的な問題であるだけでなく、戦略的なシフトでもある。ツール主導」から「インテリジェンス主導」へ、「事後対応」から「事前のガバナンス」へ、「人為的依存」から「人間と機械の協働」へ-こうしたシフトは、セキュリティ業界の様相を大きく変えるだろう。人為的な依存」から「人間と機械の協働」へ-これらのシフトは、セキュリティ業界の姿を大きく変えるだろう。

    AIネイティブ・セキュリティ・システムの構築に率先して取り組む企業は、脅威の検知、運用効率、コスト管理、人材確保など、さまざまな面で競争優位に立てるだろう。また、従来のツールの積み上げやルールの記述に終始する企業は、いずれ時代に淘汰されるだろう。

    AIの発展は不可逆的である。セキュリティの意思決定者は、戦略、組織、技術、投資の4つの側面からAIセキュリティ・プラットフォームの構築に着手し、この歴史的な機会を捉えるために直ちに行動すべきである。

    2025年12月30日
    09.4K0
  • CVE-2025-68664 : ラージモデルオープンソースフレームワーク LangChain のシリアライズインジェクション脆弱性レポート

    オープンソースのメガモデルLangChainは、Cyata Securityのセキュリティ研究者Yarden Porat氏によって発見された、シリアライズ/デシリアライズ処理において「lc」キーが欠落している深刻度レベルのシリアライズインジェクションの脆弱性(CVE-2025-68664)を公開した。この脆弱性は、Cyata Security 社のセキュリティ研究者 Yarden Porat 氏によって発見されたもので、シリアライズ/デシリアライズ処理において「lc」キーが欠落していることが原因で、攻撃者は環境変数を漏洩させたり、任意のオブジェクトをインスタンス化したり、あるいはプロンプトインジェクションによってリモートからコードを実行したりすることが可能です。この脆弱性は、バージョン0.3.81以前、およびバージョン1.0.0-1.2.5の範囲内のLangChain Coreのすべてのデプロイメントに影響し、12月24日に公式パッチバージョン1.2.5と0.3.81がリリースされ、同時にデフォルトのセキュリティポリシーが強化されました。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    05.0K0
  • AI Intelligence Body Security: GitHub Actions Prompt Word Injection (PromptPwnd) の脆弱性

    PromptPwndはAikido Securityの研究チームが発見した新しい脆弱性で、AIエージェントを統合したGitHub ActionsやGitLab CI/CDパイプラインに深刻な脅威をもたらします。この脆弱性は、Prompt Injectionを悪用し、悪意のあるコマンドをAIモデルに注入することで、キーの漏洩、ワークフローの操作、サプライチェーンの侵害を引き起こし、AIモデルに高特権の操作を実行させます。少なくともフォーチュン500の5社が影響を受けており、Google Gemini CLIなどの有名なプロジェクトにもこの脆弱性が確認されている。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    03.4K0
  • AIハッキング:AIエージェントの自動侵入分析

    Strixは、サイバーセキュリティテストの分野におけるパラダイムシフトを象徴するものであり、手動中心の侵入アプローチからマルチエージェント協調自動化モデルへの進化です。このツールは、LLM主導の自律的インテリジェンスにより、完全な脆弱性ライフサイクル管理(偵察、悪用、検証)を実現し、従来の手動侵入ツールやパッシブ・スキャン・ツールに比べて大幅なコスト優位性(70%以上のコスト削減)と時間効率優位性(テスト・サイクルが数週間から数時間に短縮)を示しています。しかし、その限界も同様に明らかである。ゼロデイ脆弱性悪用の成功率は10-12%に過ぎず、ビジネスロジックの脆弱性の検出能力は深刻なほど不十分であり、マルチエージェントシステム固有のセキュリティリスク(ヒントインジェクション、エージェント間の信頼乱用)には、構造化されたガバナンスフレームワークが必要である。

    2025年12月24日
    05.4K0
  • AIセキュリティ:人工知能(AI)の攻撃対象拡大とセキュリティ・ガバナンス

    多くの人は、AIがサイバーセキュリティに与える影響は、主に「より賢いツールが1つ増える」という形だと考えている。しかし、アジア太平洋地域(AP)におけるAIのサイバーセキュリティに関するこの大要を読んだ後では、より確かな結論として、AIは攻撃をより速く、より安く、より現実的なものにしている一方で、...

    2025年12月24日
    03.4K0
  • OWASPリリース:AIインテリジェンス・ボディ・セキュリティ OWASP Top 10 2026

    AIが単なるチャットボットから、自律的な計画、意思決定、実行能力を備えたエージェント型AIへと進化するにつれ、アプリケーションの攻撃対象は根本的に変化している。 従来のLLM ...

    2025年12月22日
    07.9K0
  • 人工知能セキュリティの深層防御:Google SAIF AIセキュリティフレームワークの解説

    大規模言語モデル(LLM)や生成型人工知能(GenAI)が企業アプリケーションに広く浸透する中、決定論的論理に基づく従来のソフトウェアセキュリティパラダイムでは、モデルの反転、データポイズニング、キューワードインジェクションといった新たな確率的脅威に対処できなくなっている。2023年に開始されるグーグルのセキュアAIフレームワーク(SAIF)は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性の融合を目指す体系的な防御アーキテクチャを提案している。グーグルが2023年に立ち上げる「セキュアAIフレームワーク(SAIF)」は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性を組み合わせることを目的とした体系的な防御アーキテクチャを提案している。本稿では、アーキテクチャ設計の観点からSAIFの6つの中核となる柱、生態学的シナジーメカニズム、進化の道筋を分析し、企業レベルのAIセキュリティシステムを構築するための理論的・実践的な参考資料を提供する。

    2025年12月20日
    04.7K0
  • CVE-2025-34291: Langflow AI Intelligence Body and Workflow Platform アカウント乗っ取りとリモートコード実行の脆弱性

    CVE-2025-34291は、Langflow AI Agent and Workflow Platformに見つかった重大な脆弱性で、セキュリティスコアはCVSS v4.0:9.4です。この脆弱性により、攻撃者はユーザーを悪意のあるウェブページに誘導することで、Langflowインスタンスの完全なアカウント乗っ取りとリモートコード実行(RCE)を行うことができます。

    2025年12月11日
    03.4K0
  • 人工知能(AI)ビッグモデルのセキュリティ・リスクと防御徹底レポート

    本レポートは、AIアシスタント、エージェント、ツール、モデル、ストレージからなるAI AIクリティカルリンクから構成される5つのコア攻撃サーフェスに基づいており、ターゲットとなるセキュリティリスク、防御アーキテクチャ、およびソリューションが示されている。

    2025年11月29日付、駐日欧州委員会代表部からの書簡
    012.4K0
  • 英国政府の人工知能(AI)安全研究所が新しいAI安全評価プラットフォームを発表

    人工知能セキュリティ・リサーチは、AIモデルの安全性と性能を評価するために設計されたオープンソースのテストプラットフォームであるInspectをリリースした。Inspectは、AIモデルの中核となる知識、推論、自律性を検出し、グローバルなAIコミュニティの発展を促進し、InspectはAIセキュリティ研究の礎石となる。

    2024年5月17日付の書簡
    015.7K0