大模型安全
-
CSO:首席安全官人工智能数据全链路安全指南
首席安全官(CSO)正面临前所未有的挑战:AI系统既放大了现有数据风险,又引入了诸如数据投毒、模型逆向工程和供应链污染等全新威胁。这份指南基于NIST AI风险管理框架(AI RMF)、Google安全AI框架(SAIF)和行业实践,为CSO提供一套可操作的数据安全治理体系。
-
CVE-2025-68664 :大模型开源框架LangChain 序列化注入漏洞报告
开源大模型LangChain披露了一个严重级别的序列化注入漏洞(CVE-2025-68664),这一漏洞由Cyata Security的安全研究员Yarden Porat发现,在序列化/反序列化流程中存在”lc”键转义缺失,攻击者可通过提示词注入等手段导致环境变量泄露、任意对象实例化乃至远程代码执行。该漏洞影响LangChain Core 0.3.81版本前及1.0.0-1.2.5版本范围内的全部部署,官方已在12月24日发布补丁版本1.2.5及0.3.81,并同步收紧默认安全策略。
-
人工智能安全纵深防御:Google SAIF AI 安全框架解析
随着大语言模型(LLM)与生成式人工智能(GenAI)在企业级应用中的广泛渗透,传统基于确定性逻辑的软件安全范式已难以应对模型反演、数据投毒及提示词注入等新型随机性威胁。Google于2023年推出的安全AI框架(Secure AI Framework, SAIF)提出了一套系统化的防御架构,旨在将传统网络安全(Cybersecurity)的最佳实践与人工智能系统的特殊性相结合。本文将从架构设计的视角,深入剖析SAIF的六大核心支柱、生态协同机制及演进路径,为构建企业级AI安全体系提供理论与实践参考。
-
人工智能(AI) 大模型安全风险与防御深度报告
本报告基于人工智能AI关键链路从AI助手 (Assistants)、代理 (Agents)、工具 (Tools)、模型 (Models) 和 存储 (Storage) 构成的五大核心攻击面,并针对性地提出了安全风险、防御架构和解决方案。