Безопасность искусственного интеллекта (ИИ)

  • MCP Governance Framework: как построить модель безопасности нового поколения, противостоящую сверхспособностям ИИ

    Сосредоточьтесь на том, как MCP может напрямую повлиять на существующую систему безопасности, предоставив ИИ фактическую "власть исполнения". С одной стороны, MCP позволяет ИИ получать доступ к инструментам, базам данных и бизнес-системам по единому протоколу, превращая их в мультиагентов, способных работать с разными системами, а не в пассивных ботов, задающих вопросы и отвечающих на них. С другой стороны, эта возможность опирается на "гибридную идентичность" и авторизацию и аутентификацию по длинным связям, так что четкая идентичность, минимальные привилегии и постоянная проверка, требуемые для нулевого доверия, систематически ослабляются, а скрытые угрозы, такие как отравление контекста, отравление инструментов, атаки на цепочки поставок и т. д., резко возрастают.
    В настоящее время управление должно быть перестроено на основе MCP - со шлюзом в качестве концентратора, единой идентификацией, тонкой авторизацией и полным аудитом связей - для того, чтобы раскрыть истинную ценность агентского ИИ без ущерба для безопасности.

    30 декабря 2025 г.
    02,3 тыс.0
  • Архитектура безопасности ИИ: от возможностей ИИ к платформам безопасности на практике на местах

    Перспективная архитектура безопасности ИИ - это не только технический вопрос, но и стратегический сдвиг. От "инструментального управления" к "интеллектуальному управлению", от "реагирования после факта" к "управлению до факта", от "искусственной зависимости" к "человеко-машинному сотрудничеству" - эти сдвиги глубоко изменят облик индустрии безопасности. От "ручной зависимости" к "человеко-машинному сотрудничеству" - эти сдвиги коренным образом изменят облик индустрии безопасности.

    Те предприятия, которые возьмут на себя инициативу по созданию систем безопасности, основанных на искусственном интеллекте, получат конкурентное преимущество по многим параметрам, таким как обнаружение угроз, операционная эффективность, контроль затрат и удержание талантов. А те предприятия, которые застряли в традиционном нагромождении инструментов и написании правил, в конечном итоге будут вытеснены временем.

    Развитие ИИ необратимо. Лица, принимающие решения в сфере безопасности, должны действовать незамедлительно, чтобы воспользоваться этой исторической возможностью, начав создание платформ безопасности ИИ по четырем направлениям: стратегия, организация, технологии и инвестиции.

  • CVE-2025-68664 : Отчет об уязвимости инъекции сериализации для LangChain, фреймворка с открытым исходным кодом для больших моделей

    Мегамодель с открытым исходным кодом LangChain раскрыла уязвимость сериализационной инъекции (CVE-2025-68664), обнаруженную исследователем безопасности Ярденом Поратом из Cyata Security, в которой в процессе сериализации/десериализации отсутствует ключ "lc". Эта уязвимость, обнаруженная исследователем безопасности Ярденом Поратом из Cyata Security, связана с отсутствием ключа "lc" в процессе сериализации/десериализации, что позволяет злоумышленнику утечь переменные окружения, инстанцировать произвольные объекты или даже удаленно выполнить код с помощью prompt injection. Уязвимость затрагивает все развертывания LangChain Core до версии 0.3.81 и в диапазоне версий 1.0.0-1.2.5. Официальные патчи для версий 1.2.5 и 0.3.81 были выпущены 24 декабря, одновременно с этим была ужесточена политика безопасности по умолчанию.

    Письмо министра иностранных дел Соединенного Королевства Великобритании и Северной Ирландии от 27 декабря 2025 года
    02,9 тыс.0
  • AI Intelligence Body Security: Уязвимость GitHub Actions Prompt Word Injection (PromptPwnd)

    PromptPwnd - это новая уязвимость, обнаруженная исследовательской группой Aikido Security, которая представляет серьезную угрозу для CI/CD конвейеров GitHub Actions и GitLab, в которые интегрированы агенты искусственного интеллекта. Уязвимость использует Prompt Injection для компрометации ключей, манипулирования рабочими процессами и нарушения цепочки поставок путем введения вредоносных команд в модель искусственного интеллекта, заставляя ее выполнять операции с высокими привилегиями. Уязвимость затронула по меньшей мере пять компаний из списка Fortune 500, а также несколько известных проектов, таких как Google Gemini CLI.

    Письмо министра иностранных дел Соединенного Королевства Великобритании и Северной Ирландии от 27 декабря 2025 года
    01,6 тыс.0
  • Взлом ИИ: автоматизированный анализ проникновения агентов ИИ

    Strix представляет собой смену парадигмы в области тестирования кибербезопасности - эволюцию от подхода, ориентированного на ручное проникновение, к многоагентной модели совместной автоматизации. Инструмент обеспечивает полное управление жизненным циклом уязвимости (разведка, эксплуатация, проверка) с помощью автономных интеллектов, управляемых LLM, демонстрируя значительные преимущества по стоимости (снижение затрат более чем на 70%) и по времени (циклы тестирования сократились с недель до часов) по сравнению с традиционными инструментами ручного проникновения и пассивного сканирования. Однако не менее очевидны и его ограничения: успешность эксплуатации уязвимостей "нулевого дня" составляет всего 10-12%, возможности обнаружения уязвимостей бизнес-логики крайне недостаточны, а присущие мультиагентным системам риски безопасности (инъекции подсказок, злоупотребление доверием между агентами) требуют структурированной системы управления.

    24 декабря 2025 г.
    02,8К0
  • Безопасность ИИ: расширение поверхности атак искусственного интеллекта (ИИ) и управление безопасностью

    Многие считают, что влияние ИИ на кибербезопасность проявляется в основном в виде "еще одного более умного инструмента". Но после прочтения сборника, посвященного кибербезопасности с использованием ИИ в Азиатско-Тихоокеанском регионе (АТР), можно сделать более основательный вывод: ИИ делает атаки быстрее, дешевле и реалистичнее, а...

    24 декабря 2025 г.
    01,9 тыс.0
  • Релиз OWASP: ИИ-интеллект в теле безопасности OWASP Top 10 2026

    По мере эволюции ИИ от простых чатботов до агентного ИИ с автономными возможностями планирования, принятия решений и исполнения, поверхность атаки приложений кардинально изменилась. В отличие от традиционных LLM ...

    22 декабря 2025 г.
    03,8 тыс.0
  • Защита искусственного интеллекта на глубине: объяснение структуры безопасности искусственного интеллекта Google SAIF

    С широким распространением больших языковых моделей (LLM) и генеративного искусственного интеллекта (GenAI) в корпоративных приложениях традиционная парадигма безопасности программного обеспечения, основанная на детерминированной логике, уже не в состоянии справиться с новыми стохастическими угрозами, такими как инверсия моделей, отравление данных и внедрение слов-ключей. В рамках проекта Secure AI Framework (SAIF), который будет запущен компанией Google в 2023 году, предлагается систематическая архитектура защиты, призванная объединить лучшие практики традиционной кибербезопасности с особенностями систем искусственного интеллекта. Secure AI Framework (SAIF), который будет запущен компанией Google в 2023 году, предлагает системную архитектуру защиты, которая призвана объединить лучшие практики традиционной кибербезопасности со спецификой систем искусственного интеллекта. В этой статье мы проанализируем шесть основных компонентов, механизм экологической синергии и путь эволюции SAIF с точки зрения архитектурного дизайна, предоставив теоретические и практические рекомендации для создания системы безопасности ИИ корпоративного уровня.

    20 декабря 2025 г.
    02,4К0
  • CVE-2025-34291: Уязвимость захвата учетной записи и удаленного выполнения кода в Langflow AI Intelligence Body and Workflow Platform

    CVE-2025-34291 - критическая цепочка уязвимостей, обнаруженная в платформе Langflow AI Agent and Workflow Platform с оценкой безопасности CVSS v4.0: 9.4. Уязвимость позволяет злоумышленнику добиться полного захвата учетной записи и удаленного выполнения кода (RCE) экземпляров Langflow, побудив пользователей посетить вредоносную веб-страницу.

    11 декабря 2025 г.
    02,0 тыс.0
  • Искусственный интеллект (ИИ) Большая модель Риски безопасности и защита Углубленный отчет

    Этот отчет основан на пяти основных поверхностях атак, состоящих из критически важных звеньев ИИ - помощников ИИ, агентов, инструментов, моделей и хранилищ - с целевыми рисками безопасности, архитектурами защиты и решениями.

    Письмо от 29 ноября 2025 года Постоянного представителя
    010.3K0