ИИ
-
Безопасность больших моделей: введение и анализ открытого фреймворка Guardrails security fence
OpenGuardrails - это первая полная платформа безопасности с открытым исходным кодом корпоративного уровня, поддерживающая 119 языков, унифицированную архитектуру LLM, настраиваемые политики чувствительности и развертывание в нескольких облаках. В этом отчете представлен глубокий анализ основных технических инноваций, сценариев применения, моделей развертывания, сравнительного анализа производительности и будущего развития, а также рекомендации по обеспечению соответствия требованиям безопасности для приложений искусственного интеллекта в регулируемых отраслях, таких как финансы, здравоохранение и юриспруденция. Анализируя настраиваемые политики OpenGuardrails, эффективную модель и инфраструктуру производственного уровня, авторы раскрывают направление развития следующего поколения ИИ-систем безопасности.
-
CSO: Руководство для директора по безопасности по полной защите данных искусственного интеллекта
Руководители служб безопасности (CSO) столкнулись с беспрецедентной проблемой: системы искусственного интеллекта как усиливают существующие риски, связанные с данными, так и создают совершенно новые угрозы, такие как отравление данных, реинжиниринг моделей и заражение цепочки поставок. Данное руководство опирается на NIST AI Risk Management Framework (AI RMF), Google Secure AI Framework (SAIF) и отраслевые практики, чтобы предоставить CSO действенную систему управления безопасностью данных.
-
Релиз OWASP: ИИ-интеллект в теле безопасности OWASP Top 10 2026
По мере эволюции ИИ от простых чатботов до агентного ИИ с автономными возможностями планирования, принятия решений и исполнения, поверхность атаки приложений кардинально изменилась. В отличие от традиционных LLM ...
-
Искусственный интеллект (ИИ) Большая модель Риски безопасности и защита Углубленный отчет
Этот отчет основан на пяти основных поверхностях атак, состоящих из критически важных звеньев ИИ - помощников ИИ, агентов, инструментов, моделей и хранилищ - с целевыми рисками безопасности, архитектурами защиты и решениями.
-
Нулевая уязвимость ИИ: можно украсть данные Microsoft 365 Copilot
Компания Aim Security обнаружила уязвимость "EchoLeak", которая эксплуатирует недостаток дизайна, характерный для RAG Copilot, позволяя злоумышленнику автоматически похищать любые данные в контексте M365 Copilot, не полагаясь на конкретное поведение пользователя. Основная цепочка атак состоит из трех различных уязвимостей, однако в ходе исследования Aim Labs выявила и другие уязвимости, которые могут позволить использовать уязвимость.
-
AIGC AI Safety Report 2024
В области AIGC (AI Generated Content) достигнут значительный прогресс. Однако технологический прогресс всегда сопровождается новыми проблемами, и вопросы безопасности в сфере AIGC выходят на первый план. В докладе будет проведен глубокий анализ рисков безопасности AIGC и предложены решения.
-
Burpsuite использует искусственный интеллект (ИИ) для автоматизации анализа уязвимостей
BurpGPT - это инструмент для обнаружения уязвимостей, основанный на искусственном интеллекте, который переосмысливает безопасность веб-приложений. Его возможности пассивного сканирования, настраиваемые оповещения и бесшовная интеграция с Burp Suite позволяют специалистам по безопасности точно и эффективно обнаруживать уязвимости. Используя модель OpenAI GPT, BurpGPT обеспечивает всесторонний анализ трафика, выходящий за рамки традиционных методов сканирования. Откройте для себя будущее оценки уязвимостей с помощью BurpGPT и укрепите защиту вашей сети от развивающихся угроз.
-
Безопасность данных: как генеративный ИИ справляется с рисками и проблемами безопасности?
Развитие и применение ИИ оказывают серьезное влияние на научную и технологическую сферу и могут спровоцировать новую революцию в производительности. Будучи мощной технологией, ИИ дает компьютерным системам возможность генерировать контент на человеческом языке.
-
Шестнадцать стран мира совместно выпускают рекомендации по разработке безопасных систем искусственного интеллекта
Руководство для любого поставщика систем, использующего искусственный интеллект (ИИ), независимо от того, созданы ли эти системы с нуля или построены на инструментах и услугах, предоставляемых другими.
-
Практика анализа вредоносного ПО AsyncRAT с использованием Chatgpt
Узнайте, как ChatGPT может помочь в анализе вредоносного ПО, в частности трояна удаленного доступа (RAT) AsyncRAT, и подробно рассмотрите возможности ChatGPT, чтобы обсудить, как он может помочь в выявлении индикаторов угроз путем анализа сетевого трафика и обнаружения инфраструктуры командования и управления (C2).