LLMセキュリティ

  • AIサプライチェーンセキュリティ:世界のOllamaフレームワーク約17万5000インスタンスの攻撃サーフェスに関するディープ分析レポート

    大規模モデル(LLM)の普及に伴い、Ollamaに代表されるオープンソースのローカライズされたデプロイメント・フレームワークは、開発者がAIモデルを使用・管理する敷居を大幅に下げている。しかし、この利便性は新たな大規模なセキュリティリスクも生み出している。SentinelOne社、Censys社、Pillar Security社が共同で発表した最近の調査では、インターネット上に公開されているOllamaのインスタンスが世界全体で17万5,000以上存在し、大規模なAIコンピューティング・インフラストラクチャのセキュリティ攻撃面リスクを生み出しているという驚くべき事実が明らかになった。
    .本レポートは、このインシデントの詳細な技術的分析を提供し、その攻撃対象、実際の脅威、システムリスクを分析し、対応する企業レベルのセキュリティ強化およびガバナンス戦略を提案することを目的としている。

    2026年1月31日
    03.5K0
  • 人工知能セキュリティの深層防御:Google SAIF AIセキュリティフレームワークの解説

    大規模言語モデル(LLM)や生成型人工知能(GenAI)が企業アプリケーションに広く浸透する中、決定論的論理に基づく従来のソフトウェアセキュリティパラダイムでは、モデルの反転、データポイズニング、キューワードインジェクションといった新たな確率的脅威に対処できなくなっている。2023年に開始されるグーグルのセキュアAIフレームワーク(SAIF)は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性の融合を目指す体系的な防御アーキテクチャを提案している。グーグルが2023年に立ち上げる「セキュアAIフレームワーク(SAIF)」は、従来のサイバーセキュリティのベストプラクティスとAIシステムの特異性を組み合わせることを目的とした体系的な防御アーキテクチャを提案している。本稿では、アーキテクチャ設計の観点からSAIFの6つの中核となる柱、生態学的シナジーメカニズム、進化の道筋を分析し、企業レベルのAIセキュリティシステムを構築するための理論的・実践的な参考資料を提供する。

    2025年12月20日
    04.5K0