Введение в тему Директор по безопасности — ваш аналитический центр экспертов по безопасности Как стать начальником службы безопасности
-
Уязвимость обхода аутентификации пользовательского интерфейса Nginx (CVE-2026-33032 / MCPwn)
Суть уязвимости заключается в логической ошибке при регистрации маршрута: конечная точка /mcp защищена промежуточным ПО AuthRequired(), но ее парная конечная точка /mcp_message, которая используется для получения инструкций для фактического вызова инструмента, развернута без этого промежуточного ПО аутентификации. Это позволяет любому злоумышленнику, имеющему сетевой доступ к этому пользовательскому интерфейсу, взять на себя управление службой Nginx без каких-либо учетных данных.
-
Изменения в безопасности ИИ: анализ релиза Claude Code Security и его влияния на индустрию кибербезопасности
Технология больших моделей эволюционирует от генеративного ИИ к интеллектуальным телам с глубокими возможностями рассуждений, что позволяет перевести кибербезопасность из режима, основанного на правилах, в режим AI-native. Такие решения, как Claude Code Security, обеспечивают интеллектуальное обнаружение и устранение уязвимостей по замкнутому циклу с помощью архитектурного картирования и отслеживания потоков данных, изменяя безопасность цепочки поставок программного обеспечения и вызывая радикальные изменения в структуре традиционного рынка безопасности.
Ключевые моменты включают:
1. от генерации к рассуждению: большая модель прошла путь от завершения текста до интеллектуального органа с возможностями понимания кода и планирования задач, поддерживающего сложный логический анализ и автономное принятие решений.
2. смена парадигмы безопасности: большая модель превосходит традиционную систему правил в плане обнаружения уязвимостей, анализа угроз, исправления кода и т. д. и повышает ее роль с “вспомогательного инструмента” до “ядра защиты”.
3. Claude Code Security: это решение обеспечивает интеллектуальный анализ безопасности кода в режиме реального времени, интегрированный в процесс разработки на основе трех основных возможностей: отображение архитектуры, отслеживание потоков данных и исправление ошибок по замкнутому циклу.
4. влияние на отраслевой ландшафт: решения безопасности, основанные на искусственном интеллекте, привели к снижению стоимости акций традиционных компаний в сфере безопасности, способствуя консолидации цепочек инструментов, снижению порога защиты и сокращению времени эксплуатации уязвимостей.
5. существуют технические ограничения: иллюзии модели могут приводить к ложным срабатываниям, а точность выводов в высокоиндивидуализированных или закрытых архитектурах остается сложной и требует постоянной проверки и оптимизации. -
Big Model Security: Уязвимость удаленного выполнения кода в расширении Claude Desktop Extension Zero-Click
Расширение Claude Desktop Extension приводит к уязвимости удаленного выполнения кода с нулевого клика, основанной на косвенной инъекции запроса, из-за отсутствия песочницы в архитектуре и предоставления полных системных привилегий агенту ИИ. Уязвимость использует недостаток дизайна протокола MCP, в котором отсутствуют границы доверия, что позволяет злоумышленнику добиться выполнения произвольного кода путем заражения внешних источников данных. Несмотря на высочайший рейтинг риска, производитель отказался устранить уязвимость, сославшись на то, что она "выходит за рамки модели угроз", что вызвало широкую полемику по поводу разделения ответственности за безопасность в эпоху ИИ. Этот случай подчеркивает фундаментальные риски безопасности систем агентов ИИ с точки зрения контроля привилегий и проверки входных данных.
Ключевые моменты включают:
1. архитектура без песочницы с высокими привилегиями: Claude DXT работает как локальный MCP-сервер, отделенный от песочницы браузера, наследуя все системные привилегии от пользователя, что создает высокий риск атак.
2. Косвенная инъекция с нулевым кликом: злоумышленник внедрял вредоносные команды в легитимные источники данных, такие как Google Calendar, побуждая ИИ-агент получать и ошибочно выполнять их самостоятельно, без вмешательства пользователя.
3. Нарушение границ доверия в протоколе MCP: протокол Model Context Protocol позволяет выводить малоопасные операции на прямой запуск высокоопасных системных вызовов, что приводит к уязвимости "обфусцированного агента", которая делает ИИ плацдармом для атак. -
Руководство по безопасности ИИ: 21 контрольный список рисков и стратегии защиты для обеспечения безопасности ИИ
Критические уровни (6): введение подсказок, введение подсказок при побеге из тюрьмы, компрометация цепочки поставок ИИ, отравление обучающих данных, инверсия модели, глубокая подделка
Продвинутые (10): неправомерное использование модели, теневая подсказка, обфускация подсказок, цепочка подсказок противника, внутреннее неправомерное использование, несоблюдение нормативных требований, социальная инженерия ИИ, человеческие ошибки, обход водяных знаков, алгоритмическая предвзятость
Промежуточные (4): утечка данных, ущерб бренду, DoS-атака, отсутствие возможности аудита
Низкий уровень (1): несоответствие между моделями -
AI BOT: углубленный анализ ландшафта угроз автоматизации на основе технологий искусственного интеллекта
Эта статья основана на отчете Imperva 2025 Malicious Robots Report, который выявляет три основные тенденции:
Новая норма автоматизированного трафика: в 2024 году автоматизированный трафик впервые превысил человеческий, составив 511 TP3T, из которых 371 TP3T - вредоносные боты, и рос шесть лет подряд, что свидетельствует о структурных изменениях в моделях взаимодействия в Интернете и новом этапе в решении проблем безопасности предприятий.
Эволюция атак с помощью ИИ: распространение искусственного интеллекта (ИИ) и больших языковых моделей (LLM) значительно снизило порог атаки, увеличив масштаб и изощренность вредоносных автоматизированных атак. ИИ используется не только для создания ботов, но и для их анализа, обучения и оптимизации методов уклонения, порождая усовершенствованные боты с более широкими возможностями уклонения и приводя к росту числа атак на бизнес-логику.
API становятся новым объектом атак: с ростом популярности микросервисов и мобильных приложений API стали главной мишенью для вредоносных ботов из-за их высокой ценности, относительно слабой защиты и простоты автоматизации.44% трафика современных ботов было направлено на API, причем наиболее сильно атакованы отрасли финансовых услуг и телекоммуникаций, где основными тактиками атак являются перехват данных, мошенничество с платежами и захват аккаунтов.
Кроме того, в статье подробно анализируется возрождение атак на захват учетных записей (ATO), отмечается их ежегодный рост до 40% в 2024 году, а также рассматриваются причины резкого увеличения числа ATO-атак, наиболее пострадавшие отрасли и возможные штрафные санкции со стороны регулирующих органов. Наконец, в документе предлагается многоуровневая адаптивная стратегия "защита в глубину", включающая выход за рамки традиционных WAF, укрепление безопасности API, противодействие ATO, построение единого представления о безопасности, непрерывный мониторинг и анализ угроз, которая призвана помочь организациям эффективно противостоять все более интеллектуальной и масштабной угрозе вредоносных ботов и защитить цифровые активы и непрерывность бизнеса. -
OpenClaw интегрируется с движком VirusTotal для повышения эффективности обнаружения вредоносных навыков ClawHub
С быстрым развитием технологий искусственного интеллекта (ИИ) открытые ИИ-интеллекты (агенты), представленные OpenClaw, беспрецедентно меняют взаимодействие человека и компьютера и автоматизацию задач. Однако его мощные возможности и открытая экосистема также порождают серьезные проблемы безопасности. В данной статье подробно рассматриваются риски безопасности, с которыми сталкиваются архитектура, функциональность и экосистема OpenClaw (в частности, рынок навыков ClawHub), а также подробно анализируется решение по интеграции сканирующего механизма VirusTotal для обнаружения и снижения вредоносных угроз, связанных с навыками. Цель статьи - предоставить исследователям и практикам в области безопасности ИИ пример управления безопасностью экосистемы интеллекта, а также размышления о будущем направлении безопасности цепочек поставок ИИ.
-
Безопасность AI Assistant: уязвимость OpenClaw для удаленного выполнения кода в один клик
В начале 2026 года OpenClaw, агент искусственного интеллекта с открытым исходным кодом (Агент), был подвержен риску уязвимости удаленного выполнения кода в один клик (One-Click RCE) (CVE-2026-25253). Уязвимость связана с недостатком дизайна пользовательского интерфейса управления, который позволяет злоумышленнику украсть токены аутентификации с повышенными привилегиями, обманом заставив пользователя перейти по хорошо сконструированной вредоносной ссылке, и в конечном итоге выполнить произвольный код на устройстве жертвы. В этой статье мы подробно проанализируем принцип работы уязвимости, цепочку атак, код эксплуатации (POC/EXP) и предложим соответствующую схему устранения.
-
Безопасность цепочек поставок с помощью искусственного интеллекта: отчет о глубоком анализе атак около 175 000 глобальных экземпляров Ollama Framework
С ростом популярности больших моделей (LLM) локализованные фреймворки развертывания с открытым исходным кодом, представленные компанией Ollama, значительно снизили порог использования и управления моделями ИИ для разработчиков. Однако такое удобство породило и новые масштабные риски безопасности. Недавнее исследование, совместно опубликованное компаниями SentinelOne, Censys и Pillar Security, показало поразительный факт: в Интернете по всему миру существует более 175 000 публично открытых экземпляров Ollama, что создает массивную поверхность атак на вычислительную инфраструктуру ИИ.
Цель данного отчета - провести глубокий технический анализ этого инцидента. Цель данного отчета - провести глубокий технический анализ этого инцидента, проанализировать поверхность атаки, реальные угрозы, системные риски и предложить соответствующие стратегии усиления безопасности и управления на уровне предприятия. -
OpenClaw Security: руководство по усилению безопасности для приложения Clawdbot's Enterprise Intelligent Body
Благодаря глубокой интеграции больших моделей (LLM) и автоматизированным рабочим процессам персональные ИИ-агенты, представленные компанией OpenClaw (ранее известной как Clawdbot), стремительно набирают популярность. Их мощные возможности системной интеграции позволили решить беспрецедентные проблемы безопасности предприятий и одновременно повысить их эффективность. Цель данной статьи - предоставить комплексное техническое руководство для руководителей предприятий, инженеров по безопасности и разработчиков для глубокого анализа основных рисков, с которыми сталкивается OpenClaw в корпоративных средах, а также предоставить набор систематических решений и лучших практик по укреплению безопасности для обеспечения эффективного контроля потенциальных рисков безопасности, наслаждаясь дивидендами от автоматизации ИИ.
-
AI Security: Руководство разработчика Cursor IDE Enterprise Security
Cursor - это IDE на базе проекта Visual Studio Code (VS Code) с открытым исходным кодом, в которую глубоко интегрированы генеративные модели больших языков (например, GPT-4, Claude) для обеспечения разработчиков интеллектуальной генерацией кода, автозавершением и исправлением ошибок. Среди его основных функций - вкладка Cursor (интеллектуальное завершение кода), режим агента (автономная генерация кода) и интеграция Model Context Protocol (MCP).