AI安全

  • AI 安全:2026年人工智能AI攻击面分析报告

    2026年,人工智能安全格局正在经历一场根本性重塑。为应对全球高达480万的网络安全人才缺口,企业正大规模部署高权限、全天候运行的AI智能体正在成为攻击者的目标。然而,这些自主系统也迅速成为了攻击者的焦点。Palo Alto Networks、Moody’s和CrowdStrike等顶级安全机构预测,AI智能体将成为2026年企业面临的最大内部威胁。传统防御框架正在失效,新的治理体系和防护架构已成为必需。

    2026年1月10日
    02.7K0
  • AI IDE 安全:Cursor Windsurf Google Antigravity 供应链攻击分析

    AI开发驱动集成开发环境IDE,如 Cursor、Windsurf 和 Google Antigravity 等因继承 VSCode 的配置文件缺陷,面临供应链攻击风险。这三个平台共拥有超过 百万级用户,其对扩展的自动化推荐机制可被攻击者利用,通过污染 OpenVSX 扩展市场来向开发者推送恶意代码。该漏洞允许攻击者注册未声明的扩展命名空间并上传恶意扩展,在无需传统社会工程学的情况下获得 SSH 密钥、AWS 凭证和源代码访问权限。该风险影响面凸显了开发者工具链中的新兴攻击向量,也标志着 IDE 扩展正式列入 MITRE ATT&CK 框架。

    2026年1月7日
    01.8K0
  • 大模型安全:开源框架Guardrails安全护栏介绍与解析

    OpenGuardrails是首个完整开源的企业级大模型安全护栏平台,支持119种语言、统一LLM架构、可配置敏感度策略、多云部署。本报告深度解析其核心技术创新、应用场景、部署模式、性能对标与未来发展,为金融、医疗、法律等受管制行业的AI应用提供安全合规指引。通过分析OpenGuardrails的可配置策略、高效模型设计与生产级基础设施,揭示下一代AI安全护栏的发展方向。

    2026年1月6日
    01.7K0
  • CSO:首席安全官人工智能数据全链路安全指南

    首席安全官(CSO)正面临前所未有的挑战:AI系统既放大了现有数据风险,又引入了诸如数据投毒、模型逆向工程和供应链污染等全新威胁。这份指南基于NIST AI风险管理框架(AI RMF)、Google安全AI框架(SAIF)和行业实践,为CSO提供一套可操作的数据安全治理体系。

    2025年12月31日
    02.4K0
  • AI安全架构:从AI能力到安全平台落地实践

    面向未来的AI安全架构不仅是技术问题,更是战略转变。从”工具驱动”向”智能体驱动”,从”事后应对”向”事前治理”,从”人工依赖”向”人机协同”——这些转变将深刻改变安全产业的样貌。

    那些率先构建AI原生安全体系的企业,将在威胁检测、运营效率、成本控制、人才留存等多个维度获得竞争优势。而那些停留在传统工具堆砌、规则编写的企业,最终将被时代淘汰。

    AI的发展不可逆转。安全决策者应当立即行动,从战略、组织、技术、投资四个维度启动AI安全平台建设,抓住这一历史机遇。

    2025年12月30日
    06.9K0
  • AI 黑客:AI 智能体(Agent )自动渗透解析

    Strix代表了网络安全测试领域的范式转变——从以人工为中心的渗透方法向多Agent协作自动化模式的演进。该工具通过LLM驱动的自主智能体实现完整的漏洞生命周期管理(侦察、利用、验证),相比传统手工渗透和被动扫描工具展现出显著的成本优势(成本降低70%以上)和时间效率优势(测试周期从数周缩短至数小时)。然而,其局限性同样明显:零日漏洞利用成功率仅10-12%,业务逻辑漏洞检测能力严重不足,且多Agent系统固有的安全风险(提示注入、Agent间信任滥用)需要结构化治理框架。

    2025年12月24日
    02.7K0
  • AI安全:人工智能(AI)攻击面扩展与安全治理

    很多人以为,AI对网络安全的影响主要体现在“多了个更聪明的工具”。但读完这份关于亚太(AP)AI网络安全的梳理之后,一个更扎心的结论是:AI正在把攻击变得更快、更便宜、更逼真,同时…

    2025年12月24日
    01.8K0
  • OWASP发布:AI智能体安全OWASP TOP 10 2026

    随着AI从单纯的“对话机器人”(Chatbots)向具备自主规划、决策和执行能力的“AI智能体”(Agentic AI)进化,应用的攻击面也发生了根本性的改变。 与传统的 LLM …

    2025年12月22日
    03.6K0
  • 人工智能安全纵深防御:Google SAIF AI 安全框架解析

    随着大语言模型(LLM)与生成式人工智能(GenAI)在企业级应用中的广泛渗透,传统基于确定性逻辑的软件安全范式已难以应对模型反演、数据投毒及提示词注入等新型随机性威胁。Google于2023年推出的安全AI框架(Secure AI Framework, SAIF)提出了一套系统化的防御架构,旨在将传统网络安全(Cybersecurity)的最佳实践与人工智能系统的特殊性相结合。本文将从架构设计的视角,深入剖析SAIF的六大核心支柱、生态协同机制及演进路径,为构建企业级AI安全体系提供理论与实践参考。

    2025年12月20日
    02.3K0
  • 人工智能(AI) 大模型安全风险与防御深度报告

    本报告基于人工智能AI关键链路从AI助手 (Assistants)、代理 (Agents)、工具 (Tools)、模型 (Models) 和 存储 (Storage) 构成的五大核心攻击面,并针对性地提出了安全风险、防御架构和解决方案。

    2025年11月29日
    010.2K0