ИИ
-
CSO: Руководство для директора по безопасности по полной защите данных искусственного интеллекта
Руководители служб безопасности (CSO) столкнулись с беспрецедентной проблемой: системы искусственного интеллекта как усиливают существующие риски, связанные с данными, так и создают совершенно новые угрозы, такие как отравление данных, реинжиниринг моделей и заражение цепочки поставок. Данное руководство опирается на NIST AI Risk Management Framework (AI RMF), Google Secure AI Framework (SAIF) и отраслевые практики, чтобы предоставить CSO действенную систему управления безопасностью данных.
-
Релиз OWASP: ИИ-интеллект в теле безопасности OWASP Top 10 2026
По мере эволюции ИИ от простых чатботов до агентного ИИ с автономными возможностями планирования, принятия решений и исполнения, поверхность атаки приложений кардинально изменилась. В отличие от традиционных LLM ...
-
Нулевая уязвимость ИИ: можно украсть данные Microsoft 365 Copilot
Компания Aim Security обнаружила уязвимость "EchoLeak", которая эксплуатирует недостаток дизайна, характерный для RAG Copilot, позволяя злоумышленнику автоматически похищать любые данные в контексте M365 Copilot, не полагаясь на конкретное поведение пользователя. Основная цепочка атак состоит из трех различных уязвимостей, однако в ходе исследования Aim Labs выявила и другие уязвимости, которые могут позволить использовать уязвимость.
-
Платформы с открытым исходным кодом обнаружили до 100 вредоносных моделей искусственного интеллекта (ИИ)/машинного обучения (МЛ)
В платформе Hugging Face было обнаружено до 100 вредоносных моделей искусственного интеллекта (AI)/машинного обучения (ML).
-
AIGC AI Safety Report 2024
В области AIGC (AI Generated Content) достигнут значительный прогресс. Однако технологический прогресс всегда сопровождается новыми проблемами, и вопросы безопасности в сфере AIGC выходят на первый план. В докладе будет проведен глубокий анализ рисков безопасности AIGC и предложены решения.
-
Burpsuite использует искусственный интеллект (ИИ) для автоматизации анализа уязвимостей
BurpGPT - это инструмент для обнаружения уязвимостей, основанный на искусственном интеллекте, который переосмысливает безопасность веб-приложений. Его возможности пассивного сканирования, настраиваемые оповещения и бесшовная интеграция с Burp Suite позволяют специалистам по безопасности точно и эффективно обнаруживать уязвимости. Используя модель OpenAI GPT, BurpGPT обеспечивает всесторонний анализ трафика, выходящий за рамки традиционных методов сканирования. Откройте для себя будущее оценки уязвимостей с помощью BurpGPT и укрепите защиту вашей сети от развивающихся угроз.
-
Gemini: выпущена большая модель, которая возглавит эпоху искусственного интеллекта и превзойдет ChatGPT!
Запуск Google Gemini, крупной модели искусственного интеллекта, превосходит chatgpt во всех аспектах. На данный момент это самая крупная и мощная модель искусственного интеллекта, а также самая гибкая модель.
-
Шестнадцать стран мира совместно выпускают рекомендации по разработке безопасных систем искусственного интеллекта
Руководство для любого поставщика систем, использующего искусственный интеллект (ИИ), независимо от того, созданы ли эти системы с нуля или построены на инструментах и услугах, предоставляемых другими.
-
Практика анализа вредоносного ПО AsyncRAT с использованием Chatgpt
Узнайте, как ChatGPT может помочь в анализе вредоносного ПО, в частности трояна удаленного доступа (RAT) AsyncRAT, и подробно рассмотрите возможности ChatGPT, чтобы обсудить, как он может помочь в выявлении индикаторов угроз путем анализа сетевого трафика и обнаружения инфраструктуры командования и управления (C2).