提示词注入

  • MCP治理框架:如何构建抵御AI超级能力的下一代安全模型

    聚焦 MCP 如何在赋予 AI 实际“执行权”的同时,直接冲击现有安全体系。 一方面,MCP 让 LLM 通过统一协议接入工具、数据库和业务系统,真正变成能跨系统的多Agent,而不是被动问答机器人。 另一方面,这种能力依赖“混合身份”和长链路授权与身份验证,使零信任要求的清晰身份、最小权限和持续验证被系统性削弱,上下文投毒、工具中毒、供应链攻击等隐形威胁面随之急剧放大。
    当下,必须围绕 MCP 重建治理——以网关为中枢,统一身份、细粒度授权和全链路审计,才能在不牺牲安全的前提下释放 agentic AI 的真正价值。

    2025年12月30日
    07820
  • 人工智能安全纵深防御:Google SAIF AI 安全框架解析

    随着大语言模型(LLM)与生成式人工智能(GenAI)在企业级应用中的广泛渗透,传统基于确定性逻辑的软件安全范式已难以应对模型反演、数据投毒及提示词注入等新型随机性威胁。Google于2023年推出的安全AI框架(Secure AI Framework, SAIF)提出了一套系统化的防御架构,旨在将传统网络安全(Cybersecurity)的最佳实践与人工智能系统的特殊性相结合。本文将从架构设计的视角,深入剖析SAIF的六大核心支柱、生态协同机制及演进路径,为构建企业级AI安全体系提供理论与实践参考。

    2025年12月20日
    01.8K0
  • 人工智能(AI) 大模型安全风险与防御深度报告

    本报告基于人工智能AI关键链路从AI助手 (Assistants)、代理 (Agents)、工具 (Tools)、模型 (Models) 和 存储 (Storage) 构成的五大核心攻击面,并针对性地提出了安全风险、防御架构和解决方案。

    2025年11月29日
    09.6K0