提示词注入
-
MCP治理框架:如何构建抵御AI超级能力的下一代安全模型
聚焦 MCP 如何在赋予 AI 实际“执行权”的同时,直接冲击现有安全体系。 一方面,MCP 让 LLM 通过统一协议接入工具、数据库和业务系统,真正变成能跨系统的多Agent,而不是被动问答机器人。 另一方面,这种能力依赖“混合身份”和长链路授权与身份验证,使零信任要求的清晰身份、最小权限和持续验证被系统性削弱,上下文投毒、工具中毒、供应链攻击等隐形威胁面随之急剧放大。
当下,必须围绕 MCP 重建治理——以网关为中枢,统一身份、细粒度授权和全链路审计,才能在不牺牲安全的前提下释放 agentic AI 的真正价值。 -
人工智能安全纵深防御:Google SAIF AI 安全框架解析
随着大语言模型(LLM)与生成式人工智能(GenAI)在企业级应用中的广泛渗透,传统基于确定性逻辑的软件安全范式已难以应对模型反演、数据投毒及提示词注入等新型随机性威胁。Google于2023年推出的安全AI框架(Secure AI Framework, SAIF)提出了一套系统化的防御架构,旨在将传统网络安全(Cybersecurity)的最佳实践与人工智能系统的特殊性相结合。本文将从架构设计的视角,深入剖析SAIF的六大核心支柱、生态协同机制及演进路径,为构建企业级AI安全体系提供理论与实践参考。
-
人工智能(AI) 大模型安全风险与防御深度报告
本报告基于人工智能AI关键链路从AI助手 (Assistants)、代理 (Agents)、工具 (Tools)、模型 (Models) 和 存储 (Storage) 构成的五大核心攻击面,并针对性地提出了安全风险、防御架构和解决方案。