LLM安全

  • AI供应链安全:全球Ollama框架实例约17.5万个攻击面深度分析报告

    随着大模型(LLM)的普及,以Ollama为代表的开源本地化部署框架极大地降低了开发者使用和管理AI模型的门槛。然而,这种便利性也催生了新的、大规模的安全风险。近期由SentinelOne、Censys及Pillar Security联合发布的研究报告揭示了一个惊人的事实:全球范围内存在超过17.5万个公开暴露在互联网上的Ollama实例,形成了一个庞大AI计算基础设施安全攻击面风险
    。本报告旨在对这一事件进行深度技术剖析,分析其攻击面、现实威胁、系统性风险,并提出相应的企业级安全加固与治理策略。

    2026年1月31日
    03.5K0
  • 人工智能安全纵深防御:Google SAIF AI 安全框架解析

    随着大语言模型(LLM)与生成式人工智能(GenAI)在企业级应用中的广泛渗透,传统基于确定性逻辑的软件安全范式已难以应对模型反演、数据投毒及提示词注入等新型随机性威胁。Google于2023年推出的安全AI框架(Secure AI Framework, SAIF)提出了一套系统化的防御架构,旨在将传统网络安全(Cybersecurity)的最佳实践与人工智能系统的特殊性相结合。本文将从架构设计的视角,深入剖析SAIF的六大核心支柱、生态协同机制及演进路径,为构建企业级AI安全体系提供理论与实践参考。

    2025年12月20日
    04.5K0