сбор разведданных
-
Уязвимость обхода аутентификации пользовательского интерфейса Nginx (CVE-2026-33032 / MCPwn)
Суть уязвимости заключается в логической ошибке при регистрации маршрута: конечная точка /mcp защищена промежуточным ПО AuthRequired(), но ее парная конечная точка /mcp_message, которая используется для получения инструкций для фактического вызова инструмента, развернута без этого промежуточного ПО аутентификации. Это позволяет любому злоумышленнику, имеющему сетевой доступ к этому пользовательскому интерфейсу, взять на себя управление службой Nginx без каких-либо учетных данных.
-
Изменения в безопасности ИИ: анализ релиза Claude Code Security и его влияния на индустрию кибербезопасности
Технология больших моделей эволюционирует от генеративного ИИ к интеллектуальным телам с глубокими возможностями рассуждений, что позволяет перевести кибербезопасность из режима, основанного на правилах, в режим AI-native. Такие решения, как Claude Code Security, обеспечивают интеллектуальное обнаружение и устранение уязвимостей по замкнутому циклу с помощью архитектурного картирования и отслеживания потоков данных, изменяя безопасность цепочки поставок программного обеспечения и вызывая радикальные изменения в структуре традиционного рынка безопасности.
Ключевые моменты включают:
1. от генерации к рассуждению: большая модель прошла путь от завершения текста до интеллектуального органа с возможностями понимания кода и планирования задач, поддерживающего сложный логический анализ и автономное принятие решений.
2. смена парадигмы безопасности: большая модель превосходит традиционную систему правил в плане обнаружения уязвимостей, анализа угроз, исправления кода и т. д. и повышает ее роль с “вспомогательного инструмента” до “ядра защиты”.
3. Claude Code Security: это решение обеспечивает интеллектуальный анализ безопасности кода в режиме реального времени, интегрированный в процесс разработки на основе трех основных возможностей: отображение архитектуры, отслеживание потоков данных и исправление ошибок по замкнутому циклу.
4. влияние на отраслевой ландшафт: решения безопасности, основанные на искусственном интеллекте, привели к снижению стоимости акций традиционных компаний в сфере безопасности, способствуя консолидации цепочек инструментов, снижению порога защиты и сокращению времени эксплуатации уязвимостей.
5. существуют технические ограничения: иллюзии модели могут приводить к ложным срабатываниям, а точность выводов в высокоиндивидуализированных или закрытых архитектурах остается сложной и требует постоянной проверки и оптимизации. -
Big Model Security: Уязвимость удаленного выполнения кода в расширении Claude Desktop Extension Zero-Click
Расширение Claude Desktop Extension приводит к уязвимости удаленного выполнения кода с нулевого клика, основанной на косвенной инъекции запроса, из-за отсутствия песочницы в архитектуре и предоставления полных системных привилегий агенту ИИ. Уязвимость использует недостаток дизайна протокола MCP, в котором отсутствуют границы доверия, что позволяет злоумышленнику добиться выполнения произвольного кода путем заражения внешних источников данных. Несмотря на высочайший рейтинг риска, производитель отказался устранить уязвимость, сославшись на то, что она "выходит за рамки модели угроз", что вызвало широкую полемику по поводу разделения ответственности за безопасность в эпоху ИИ. Этот случай подчеркивает фундаментальные риски безопасности систем агентов ИИ с точки зрения контроля привилегий и проверки входных данных.
Ключевые моменты включают:
1. архитектура без песочницы с высокими привилегиями: Claude DXT работает как локальный MCP-сервер, отделенный от песочницы браузера, наследуя все системные привилегии от пользователя, что создает высокий риск атак.
2. Косвенная инъекция с нулевым кликом: злоумышленник внедрял вредоносные команды в легитимные источники данных, такие как Google Calendar, побуждая ИИ-агент получать и ошибочно выполнять их самостоятельно, без вмешательства пользователя.
3. Нарушение границ доверия в протоколе MCP: протокол Model Context Protocol позволяет выводить малоопасные операции на прямой запуск высокоопасных системных вызовов, что приводит к уязвимости "обфусцированного агента", которая делает ИИ плацдармом для атак. -
AI BOT: углубленный анализ ландшафта угроз автоматизации на основе технологий искусственного интеллекта
Эта статья основана на отчете Imperva 2025 Malicious Robots Report, который выявляет три основные тенденции:
Новая норма автоматизированного трафика: в 2024 году автоматизированный трафик впервые превысил человеческий, составив 511 TP3T, из которых 371 TP3T - вредоносные боты, и рос шесть лет подряд, что свидетельствует о структурных изменениях в моделях взаимодействия в Интернете и новом этапе в решении проблем безопасности предприятий.
Эволюция атак с помощью ИИ: распространение искусственного интеллекта (ИИ) и больших языковых моделей (LLM) значительно снизило порог атаки, увеличив масштаб и изощренность вредоносных автоматизированных атак. ИИ используется не только для создания ботов, но и для их анализа, обучения и оптимизации методов уклонения, порождая усовершенствованные боты с более широкими возможностями уклонения и приводя к росту числа атак на бизнес-логику.
API становятся новым объектом атак: с ростом популярности микросервисов и мобильных приложений API стали главной мишенью для вредоносных ботов из-за их высокой ценности, относительно слабой защиты и простоты автоматизации.44% трафика современных ботов было направлено на API, причем наиболее сильно атакованы отрасли финансовых услуг и телекоммуникаций, где основными тактиками атак являются перехват данных, мошенничество с платежами и захват аккаунтов.
Кроме того, в статье подробно анализируется возрождение атак на захват учетных записей (ATO), отмечается их ежегодный рост до 40% в 2024 году, а также рассматриваются причины резкого увеличения числа ATO-атак, наиболее пострадавшие отрасли и возможные штрафные санкции со стороны регулирующих органов. Наконец, в документе предлагается многоуровневая адаптивная стратегия "защита в глубину", включающая выход за рамки традиционных WAF, укрепление безопасности API, противодействие ATO, построение единого представления о безопасности, непрерывный мониторинг и анализ угроз, которая призвана помочь организациям эффективно противостоять все более интеллектуальной и масштабной угрозе вредоносных ботов и защитить цифровые активы и непрерывность бизнеса. -
OpenClaw интегрируется с движком VirusTotal для повышения эффективности обнаружения вредоносных навыков ClawHub
С быстрым развитием технологий искусственного интеллекта (ИИ) открытые ИИ-интеллекты (агенты), представленные OpenClaw, беспрецедентно меняют взаимодействие человека и компьютера и автоматизацию задач. Однако его мощные возможности и открытая экосистема также порождают серьезные проблемы безопасности. В данной статье подробно рассматриваются риски безопасности, с которыми сталкиваются архитектура, функциональность и экосистема OpenClaw (в частности, рынок навыков ClawHub), а также подробно анализируется решение по интеграции сканирующего механизма VirusTotal для обнаружения и снижения вредоносных угроз, связанных с навыками. Цель статьи - предоставить исследователям и практикам в области безопасности ИИ пример управления безопасностью экосистемы интеллекта, а также размышления о будущем направлении безопасности цепочек поставок ИИ.
-
Безопасность цепочек поставок с помощью искусственного интеллекта: отчет о глубоком анализе атак около 175 000 глобальных экземпляров Ollama Framework
С ростом популярности больших моделей (LLM) локализованные фреймворки развертывания с открытым исходным кодом, представленные компанией Ollama, значительно снизили порог использования и управления моделями ИИ для разработчиков. Однако такое удобство породило и новые масштабные риски безопасности. Недавнее исследование, совместно опубликованное компаниями SentinelOne, Censys и Pillar Security, показало поразительный факт: в Интернете по всему миру существует более 175 000 публично открытых экземпляров Ollama, что создает массивную поверхность атак на вычислительную инфраструктуру ИИ.
Цель данного отчета - провести глубокий технический анализ этого инцидента. Цель данного отчета - провести глубокий технический анализ этого инцидента, проанализировать поверхность атаки, реальные угрозы, системные риски и предложить соответствующие стратегии усиления безопасности и управления на уровне предприятия. -
Фреймворк с открытым исходным кодом для ИИ : Фреймворк для ИИ Chainlit Анализ влияния портфеля уязвимостей ChainLeak
ChainLeak, высокорискованная уязвимость в фреймворке Chainlit, включая принцип произвольного чтения файлов и уязвимость SSRF, демонстрацию атаки и рекомендации по защите для специалистов по безопасности ИИ и команд безопасности предприятий.
-
Глобальный ландшафт кибератак и угроз безопасности искусственного интеллекта - отчет за 2025 год
2025 год - это год "беспрецедентной сложности" в сфере кибербезопасности. С быстрым развитием и масштабным применением технологий искусственного интеллекта киберугрозы приобретают беспрецедентную сложность и масштаб. В этом отчете представлен глубокий анализ новых глобальных кибератак, типичных инцидентов безопасности, угроз безопасности ИИ и соответствующих стратегий управления рисками в 2025 году, что дает технические рекомендации и основу для принятия решений инженерам по ИИ, инженерам по безопасности и главным специалистам по безопасности (CSO).
-
Безопасность ИИ IDE: анализ атак на антигравитационную цепочку поставок Cursor Windsurf Google
IDE для разработки ИИ, такие как Cursor, Windsurf и Google Antigravity, подвержены риску атак на цепочки поставок из-за дефектов конфигурационных файлов, унаследованных от VSCode. Эти три платформы, насчитывающие более миллиона пользователей, имеют автоматизированный механизм рекомендаций для расширений, который может быть использован злоумышленником для распространения вредоносного кода среди разработчиков путем заражения рынка расширений OpenVSX. Уязвимость позволяет злоумышленнику зарегистрировать незаявленные пространства имен расширений и загрузить вредоносные расширения, чтобы получить ключи SSH, учетные данные AWS и доступ к исходному коду без традиционной социальной инженерии. Поверхность воздействия риска подчеркивает новый вектор атаки в инструментарии разработчиков и знаменует собой официальное включение расширений IDE в рамки MITRE ATT&CK.
-
Релиз OWASP: ИИ-интеллект в теле безопасности OWASP Top 10 2026
По мере эволюции ИИ от простых чатботов до агентного ИИ с автономными возможностями планирования, принятия решений и исполнения, поверхность атаки приложений кардинально изменилась. В отличие от традиционных LLM ...