Быстрое введение
-
AI Security:Отчет об анализе поверхности атаки искусственного интеллекта на 2026 год
В 2026 году ландшафт безопасности ИИ претерпит фундаментальную перестройку. В ответ на глобальную нехватку кадров в области кибербезопасности, которая составляет до 4,8 миллиона человек, организации массово внедряют интеллектуальные системы ИИ с высокими привилегиями, работающие круглосуточно и без выходных, и становятся мишенью для злоумышленников. Однако эти автономные системы также быстро становятся объектом внимания злоумышленников. По прогнозам ведущих организаций по безопасности, таких как Palo Alto Networks, Moody's и CrowdStrike, к 2026 году интеллектуальные системы искусственного интеллекта станут самой большой внутренней угрозой, с которой столкнутся предприятия. Традиционные системы защиты дают сбой, поэтому возникла необходимость в новых системах управления и архитектурах защиты.
-
Безопасность ИИ: создание системы безопасности корпоративного ИИ на основе методологии ATT&CK
В данной статье в качестве основы взята матрица угроз безопасности ИИ, и на основе зрелой методологии ATT&CK систематически рассматриваются угрозы безопасности, с которыми сталкиваются системы ИИ на протяжении всего жизненного цикла, включая отравление данных, извлечение моделей, утечку конфиденциальной информации, вражеские образцы и ключевые методы атаки, такие как внедрение слов-ключей, а также предлагаются соответствующие стратегии защиты и решения для посадки предприятий, чтобы обеспечить инженеров ИИ, инженеров безопасности и CSO профессиональными техническими средствами. Ссылка.
-
AI Intelligence Body Security: Уязвимость GitHub Actions Prompt Word Injection (PromptPwnd)
PromptPwnd - это новая уязвимость, обнаруженная исследовательской группой Aikido Security, которая представляет серьезную угрозу для CI/CD конвейеров GitHub Actions и GitLab, в которые интегрированы агенты искусственного интеллекта. Уязвимость использует Prompt Injection для компрометации ключей, манипулирования рабочими процессами и нарушения цепочки поставок путем введения вредоносных команд в модель искусственного интеллекта, заставляя ее выполнять операции с высокими привилегиями. Уязвимость затронула по меньшей мере пять компаний из списка Fortune 500, а также несколько известных проектов, таких как Google Gemini CLI.
-
Искусственный интеллект (ИИ) Большая модель Риски безопасности и защита Углубленный отчет
Этот отчет основан на пяти основных поверхностях атак, состоящих из критически важных звеньев ИИ - помощников ИИ, агентов, инструментов, моделей и хранилищ - с целевыми рисками безопасности, архитектурами защиты и решениями.