Безопасность большой модели
-
大模型安全:开源框架Guardrails安全护栏介绍与解析
OpenGuardrails是首个完整开源的企业级大模型安全护栏平台,支持119种语言、统一LLM架构、可配置敏感度策略、多云部署。本报告深度解析其核心技术创新、应用场景、部署模式、性能对标与未来发展,为金融、医疗、法律等受管制行业的AI应用提供安全合规指引。通过分析OpenGuardrails的可配置策略、高效模型设计与生产级基础设施,揭示下一代AI安全护栏的发展方向。
-
CSO: Руководство для директора по безопасности по полной защите данных искусственного интеллекта
Руководители служб безопасности (CSO) столкнулись с беспрецедентной проблемой: системы искусственного интеллекта как усиливают существующие риски, связанные с данными, так и создают совершенно новые угрозы, такие как отравление данных, реинжиниринг моделей и заражение цепочки поставок. Данное руководство опирается на NIST AI Risk Management Framework (AI RMF), Google Secure AI Framework (SAIF) и отраслевые практики, чтобы предоставить CSO действенную систему управления безопасностью данных.
-
CVE-2025-68664 : Отчет об уязвимости инъекции сериализации для LangChain, фреймворка с открытым исходным кодом для больших моделей
Мегамодель с открытым исходным кодом LangChain раскрыла уязвимость сериализационной инъекции (CVE-2025-68664), обнаруженную исследователем безопасности Ярденом Поратом из Cyata Security, в которой в процессе сериализации/десериализации отсутствует ключ "lc". Эта уязвимость, обнаруженная исследователем безопасности Ярденом Поратом из Cyata Security, связана с отсутствием ключа "lc" в процессе сериализации/десериализации, что позволяет злоумышленнику утечь переменные окружения, инстанцировать произвольные объекты или даже удаленно выполнить код с помощью prompt injection. Уязвимость затрагивает все развертывания LangChain Core до версии 0.3.81 и в диапазоне версий 1.0.0-1.2.5. Официальные патчи для версий 1.2.5 и 0.3.81 были выпущены 24 декабря, одновременно с этим была ужесточена политика безопасности по умолчанию.
-
Защита искусственного интеллекта на глубине: объяснение структуры безопасности искусственного интеллекта Google SAIF
С широким распространением больших языковых моделей (LLM) и генеративного искусственного интеллекта (GenAI) в корпоративных приложениях традиционная парадигма безопасности программного обеспечения, основанная на детерминированной логике, уже не в состоянии справиться с новыми стохастическими угрозами, такими как инверсия моделей, отравление данных и внедрение слов-ключей. В рамках проекта Secure AI Framework (SAIF), который будет запущен компанией Google в 2023 году, предлагается систематическая архитектура защиты, призванная объединить лучшие практики традиционной кибербезопасности с особенностями систем искусственного интеллекта. Secure AI Framework (SAIF), который будет запущен компанией Google в 2023 году, предлагает системную архитектуру защиты, которая призвана объединить лучшие практики традиционной кибербезопасности со спецификой систем искусственного интеллекта. В этой статье мы проанализируем шесть основных компонентов, механизм экологической синергии и путь эволюции SAIF с точки зрения архитектурного дизайна, предоставив теоретические и практические рекомендации для создания системы безопасности ИИ корпоративного уровня.
-
Искусственный интеллект (ИИ) Большая модель Риски безопасности и защита Углубленный отчет
Этот отчет основан на пяти основных поверхностях атак, состоящих из критически важных звеньев ИИ - помощников ИИ, агентов, инструментов, моделей и хранилищ - с целевыми рисками безопасности, архитектурами защиты и решениями.