AIエージェント

  • 大模型安全:开源框架Guardrails安全护栏介绍与解析

    OpenGuardrails是首个完整开源的企业级大模型安全护栏平台,支持119种语言、统一LLM架构、可配置敏感度策略、多云部署。本报告深度解析其核心技术创新、应用场景、部署模式、性能对标与未来发展,为金融、医疗、法律等受管制行业的AI应用提供安全合规指引。通过分析OpenGuardrails的可配置策略、高效模型设计与生产级基础设施,揭示下一代AI安全护栏的发展方向。

    2026年1月6日
    06600
  • CSO:最高セキュリティ責任者が教えるAIデータのフルリンク・セキュリティ・ガイド

    最高セキュリティ責任者(CSO)は、前例のない課題に直面しています。AIシステムは、既存のデータリスクを増幅させると同時に、データポイズニング、モデルリバースエンジニアリング、サプライチェーン汚染など、まったく新しい脅威を導入しています。本ガイドは、NIST AIリスク管理フレームワーク(AI RMF)、Google Secure AIフレームワーク(SAIF)、および業界のプラクティスに基づき、CSOに実行可能なデータセキュリティガバナンスシステムを提供します。

    2025年12月31日
    01.3K0
  • AI Intelligence Body Security: GitHub Actions Prompt Word Injection (PromptPwnd) の脆弱性

    PromptPwndはAikido Securityの研究チームが発見した新しい脆弱性で、AIエージェントを統合したGitHub ActionsやGitLab CI/CDパイプラインに深刻な脅威をもたらします。この脆弱性は、Prompt Injectionを悪用し、悪意のあるコマンドをAIモデルに注入することで、キーの漏洩、ワークフローの操作、サプライチェーンの侵害を引き起こし、AIモデルに高特権の操作を実行させます。少なくともフォーチュン500の5社が影響を受けており、Google Gemini CLIなどの有名なプロジェクトにもこの脆弱性が確認されている。

    グレートブリテンおよび北アイルランド連合王国外務大臣からの2025年12月27日付書簡
    09520
  • AIハッキング:AIエージェントの自動侵入分析

    Strixは、サイバーセキュリティテストの分野におけるパラダイムシフトを象徴するものであり、手動中心の侵入アプローチからマルチエージェント協調自動化モデルへの進化です。このツールは、LLM主導の自律的インテリジェンスにより、完全な脆弱性ライフサイクル管理(偵察、悪用、検証)を実現し、従来の手動侵入ツールやパッシブ・スキャン・ツールに比べて大幅なコスト優位性(70%以上のコスト削減)と時間効率優位性(テスト・サイクルが数週間から数時間に短縮)を示しています。しかし、その限界も同様に明らかである。ゼロデイ脆弱性悪用の成功率は10-12%に過ぎず、ビジネスロジックの脆弱性の検出能力は深刻なほど不十分であり、マルチエージェントシステム固有のセキュリティリスク(ヒントインジェクション、エージェント間の信頼乱用)には、構造化されたガバナンスフレームワークが必要である。

    2025年12月24日
    01.9K0
  • OWASPリリース:AIインテリジェンス・ボディ・セキュリティ OWASP Top 10 2026

    AIが単なるチャットボットから、自律的な計画、意思決定、実行能力を備えたエージェント型AIへと進化するにつれ、アプリケーションの攻撃対象は根本的に変化している。 従来のLLM ...

    2025年12月22日
    02.9K0