AI安全风险

  • AI安全指南:人工智能安全21大风险检查清单与防御策略

    关键级(6个):提示注入、越狱提示、AI供应链妥协、训练数据投毒、模型反演、深度伪造
    高级(10个):模型滥用、影子提示、提示混淆、对抗性提示链、内部滥用、监管不合规、AI社会工程、人为错误、水印规避、算法偏见
    中级(4个):数据外泄、品牌损害、DoS攻击、缺乏可审计性
    低级(1个):跨模型不一致性

    2026年2月11日
    03.9K0
  • AI 安全:2026年人工智能AI攻击面分析报告

    2026年,人工智能安全格局正在经历一场根本性重塑。为应对全球高达480万的网络安全人才缺口,企业正大规模部署高权限、全天候运行的AI智能体正在成为攻击者的目标。然而,这些自主系统也迅速成为了攻击者的焦点。Palo Alto Networks、Moody’s和CrowdStrike等顶级安全机构预测,AI智能体将成为2026年企业面临的最大内部威胁。传统防御框架正在失效,新的治理体系和防护架构已成为必需。

    2026年1月10日
    06.5K0
  • 人工智能(AI) 大模型安全风险与防御深度报告

    本报告基于人工智能AI关键链路从AI助手 (Assistants)、代理 (Agents)、工具 (Tools)、模型 (Models) 和 存储 (Storage) 构成的五大核心攻击面,并针对性地提出了安全风险、防御架构和解决方案。

    2025年11月29日
    012.4K0