Вчера • 2026年1月18日 • Вс
12:00

风险洞察:Shadow AI 引爆个人 LLM 账号数据泄露

最新云威胁报告显示,员工使用个人账户访问 ChatGPT、Google Gemini、Copilot 等 LLM 工具已成为企业数据泄露的主渠道之一,genAI 相关的数据策略违规平均每月高达 223 起,较去年翻倍增长。 报告指出,部分组织中发往生成式 AI 应用的提示数量在一年内增长六倍,头部 1% 企业每月提交提示超过 140 万条,其中包含源代码、合同文本、客户资料甚至凭据等高敏数据,一旦被用于模型训练或遭二次窃取,将给合规与知识产权带来长期不可逆风险。 这类 Shadow AI 的共性在于“看不见、管不住”:安全团队往往只盯住官方接入的大模型,而忽视浏览器、个人账号和移动端的灰色通道,未来还将叠加基于会话上下文的个性化广告与第三方插件生态,进一步模糊数据边界。 企业应尽快建立 genAI 使用策略与分类分级规范,借助 CASB/SASE 对 AI 流量进行识别与阻断,对高敏部门默认禁止个人 LLM 访问,并引入企业版受控 LLM 作为替代,配套审计与数据最小化策略。

风险洞察:Shadow AI 引爆个人 LLM 账号数据泄露
11:35

ChatGPT 引入对话式广告:AI 盈利模式背后的数据安全与合规新挑战

OpenAI 宣布在 ChatGPT 免费版与 Go 版本中测试会话内广告,这一商业化调整同时把“广告合规与数据安全”推上台前。 官方强调不会向广告商出售对话数据、广告与回答逻辑隔离,但并未细化用于个性化投放的数据类型和处理路径,这正是安全与合规团队需要重点审视的灰区。 从技术路径看,聊天式广告需要把对话上下文、兴趣信号与用户画像做实时特征抽取,再通过推荐或排序模型选出“相关赞助内容”,这要求在日志采集、特征生成、模型训练和推送链路中建立最小化采集、脱敏与用途限定控制,否则极易演变为“隐性画像 + 越界再利用”。 对企业安全团队而言,一方面要将此类“对话式 AI 广告”纳入第三方服务风险评估,排查是否存在跨区域数据流转、监管红线(如未成年人、敏感场景广告屏蔽策略)与审计缺口;另一方面也要反向审视自身内部的 AI 助手和客服机器人,是否同样存在“借交互顺手做广告/画像”的冲动和暗箱逻辑。 可以预见,面向未来的大模型产品安全,将从单纯讨论“模型越权、提示注入”扩展到“人机对话中的隐性营销边界”,如何在可持续盈利、用户信任与监管要求之间设计透明可控的广告与数据治理机制,正成为下一轮 AI 安全实践的关键命题。

ChatGPT 引入对话式广告:AI 盈利模式背后的数据安全与合规新挑战
09:18

风险洞察:2026全球企业安全焦点转向AI漏洞

报告核心发现:
WEF(世界经济论坛)在2025年8-10月期间对全球800名企业从业者进行问卷调查,结果于2026年1月发布。调查显示,94%的高管认为AI是2026年网络安全格局中最显著的变革驱动力;87%的受访者将AI相关漏洞列为增长最快的网络安全风险。与2025年的调查相比,企业评估AI工具安全性的比例从37%剧增至64%。从攻防角度看,企业既担心攻击者利用AI加速攻击速度(72%关注),也在投资AI防御工具。

AI安全三大核心隐患:
CSO们具体识别的Top 3风险依次为:
(1)数据泄露与隐私暴露(30%)——AI模型训练数据被投毒或推理时敏感信息被提取;
(2)对手AI能力提升(28%)——恶意行为人利用AI生成钓鱼邮件、自适应恶意软件、虚假舆论;
(3)AI系统技术安全性(15%)——模型后门、权限混淆、提示注入等AI特有漏洞。
与此同时,73%企业已从2025年的”勒索软件防御优先”转向2026年的”AI驱动欺诈与网络钓鱼防御”。

AI智能体权限爆炸问题:
CyberArk与其他安全厂商报告指出一个关键趋势:非人类身份(machine identities)即将成为第一大云侵害向量。到2026年,每个AI智能体都是一个”身份”——需要数据库凭证、云服务token、代码仓库密钥等。随着组织部署数十乃至数百个AI智能体,这些身份累积的权限呈指数增长,成为攻击者目标。OWASP新增的”工具误用”(tool misuse)攻击向量尤其危险:攻击者在不修改AI指令前缀(system prompt)的前提下,通过恶意数据注入(如订单地址字段中的提示注入),诱导AI执行非预期的API调用、权限提升或数据窃取操作。

前瞻性应对策略:

实施AI身份与访问治理(IAM):给每个AI智能体分配最小必需权限,定期审计其凭证与API调用日志

部署表达式与提示防护:在AI代理的输入验证层增加指令注入检测,对不信任的外部数据源进行隔离处理

建立AI供应链信任体系:审查第三方AI模型、插件与数据源的安全来源,防止后门模型被部署

扩展AI感知SIEM:传统日志分析已难以应对AI的高度自主性,需要专用的AI行为异常检测

组建AI安全应急响应团队:因为传统的网络安全团队缺乏AI特定威胁的应急响应经验

趋势洞察:

2026年将是从”AI赋能安全防御”向”AI安全治理体系化”的转折点。不再是简单地”用AI打击恶意AI”,而是要在身份管理、权限治理、审计日志、应急响应等全流程中融入AI风险意识。那些仍停留在”AI好处论”而忽视权限管理的企业,将面临最大的代价。

风险洞察:2026全球企业安全焦点转向AI漏洞
13 января 2026 - Вт
23:00

AI 网络攻击成新趋势:2025 Q4 攻击样本预测试 2026 AI安全风险

Согласно отчетам службы безопасности, в четвертом квартале 2025 года появилось множество случаев кибератак с использованием автономных агентов искусственного интеллекта. Злоумышленники значительно расширили свою площадь атаки, автоматизировав сбор разведданных, латеральное перемещение и повышение привилегий с помощью таких интеллектов. Некоторые аналитики отмечают, что некоторые угрожающие субъекты национального уровня уже используют ИИ-агенты для выполнения 80%-90% этапов цепочки атак в реальных боевых действиях, причем скорость и скрытность превосходит скорость и скрытность традиционных человеческих хакерских команд. Эксперты прогнозируют, что по мере дальнейшего развития больших моделей и автоматизированных систем в 2026 году "автономные атаки ИИ" могут превратиться в новую основную угрозу, более разрушительную, чем традиционные выкупные программы и фишинг, особенно в отношении критической инфраструктуры и облачных сред.

22:59

Мошенничество с использованием искусственного интеллекта и утечки данных резко возрастут в 2026 году

Согласно последнему прогнозу Experian, искусственный интеллект станет одной из основных угроз кибербезопасности в 2026 году: только за первую половину 2025 года в мире произошло более 8000 утечек данных и было раскрыто около 345 миллионов записей. В то же время Experian и Fortune сообщают, что мошенничество с помощью ИИ продолжит стремительно расти в 2026 году: в предыдущем году убытки уже оценивались в 12,5 миллиарда долларов, а на финансовых, электронных и социальных платформах быстро распространятся глубокие подделки и умный фишинг. Согласно отчетам, инструменты искусственного интеллекта "демократизируют" возможности мошенничества, позволяя низкоквалифицированным злоумышленникам серийно генерировать высокореалистичные текстовые сообщения, голос и синтетическое видео, в результате чего традиционным правилам борьбы с мошенничеством становится сложно вовремя распознать эти новые модели атак.

22:56

Глобальная перспектива кибербезопасности на 2026 год: искусственный интеллект стал самым большим риском для роста числа атак кибербезопасности

В отчете Global Cybersecurity Outlook 2026 говорится, что 87% опрошенных организаций считают уязвимости, связанные с ИИ, самым быстрорастущим киберриском с 2025 года, и что ИИ укрепляет как наступательную, так и оборонительную стороны спектра. Согласно отчету, 77% организаций применяют ИИ в своих операциях по обеспечению безопасности для обнаружения фишинга, реагирования на аномальные вторжения и анализа поведения пользователей, однако утечки данных и неправомерное использование моделей являются одними из главных проблем руководителей. Доля организаций, активно оценивающих безопасность инструментов ИИ, увеличилась с 37% до 64% по сравнению с 2025 годом, что свидетельствует о том, что организации переходят от "слепого принятия ИИ" к "приоритетному управлению безопасностью".

Дата и место рождения: 11 января 2026 года - Вс
10:23

BreachForums Темная паутина Форумы История базы данных Крупная утечка

 С 2022 года BreachForums является одним из крупнейших и наиболее известных в мире форумов, посвященных утечкам данных и хакерским сделкам. Этот подпольный базар данных - не только площадка для демонстрации хакерами своих военных сундуков, но и точка отсчета многих крупных утечек данных и кампаний по выкупу.Первоначально основанный Конором Фитцпатриком (ID "pompompurin"), BreachForums был захвачен в 2023 году. ShinyHunters взял на себя управление. Позже он был отключен от сети в связи с MyBB 0day, и в то время были опубликованы некоторые заметки, подлинность которых неизвестна. В июне этого года Франция и США совместными усилиями арестовали ряд основных членов, включая ShinyHunters, Hollow, Noct и Depressed.
Основные детали инцидента
Источник утечки: предположительно от одного из пользователей оригинального форума BreachForums.

Содержимое утечки: zip-файл с именем breachforum.7z, содержащий:

Полный файл базы данных SQL: содержит основные данные, такие как регистрационная информация пользователя, учетные данные и т. д.

Пользовательский ключ PGP: может повлиять на безопасность зашифрованных сообщений.

Документ заявления: длинный, стилизованный, "поэтический" текст (.txt), содержание которого, как предполагается, может быть приукрашено ИИ или быть заявлением утечки.

Подлинность данных: данные были проверены на подлинность и актуальность существующими пользователями через временный адрес электронной почты, который они использовали в документе.

Скачано с сайта: https://shinyhunte[...] rs/breachforum.7z (Примечание: в целях безопасности ссылки были переведены в безобидный вид, пожалуйста, не переходите по ним напрямую).

Анализ данных об утечках (ранжирование почтовых доменов)
Статистический рейтинг зарегистрированных адресов электронной почты в утечке данных выглядит следующим образом, четко отражая предпочтения пользовательской базы форума, с очень высоким процентом частных и временных почтовых сервисов:

Ранг Доменное имя почтового ящика Число случаев Тип/функции службы
1 gmail.com 239 747 Обычные коммерческие почтовые ящики
2 proton.me 29 851 Почтовые ящики со сквозным шифрованием
3 protonmail.com 12 382 Почтовые ящики со сквозным шифрованием
4 onionmail.org 4,668 Анонимные зашифрованные почтовые ящики, специализирующиеся на сети Tor
5 cock.li 4,577 Служба хостинга электронной почты, подчеркивающая анонимность без проверки личности
6 yahoo.com 4,478 Основные коммерческие почтовые ящики
7 qq.com 3 290 Обычные коммерческие почтовые ящики
8 mozmail.com 2 395 Почтовый ящик для пересылки конфиденциальных данных, предоставляемый Firefox Relay
9 tutanota.com / tutamail.com 2 294 Почтовые ящики со сквозным шифрованием
10 dnmx.org 1,441 Анонимная почтовая служба
Анализ данных Интерпретация:

Высокая концентрация сервисов приватности: более половины из 10 лучших доменов (Proton, OnionMail, Cock.li, Mozilla Relay, Tuta) - это сервисы защиты приватности, ориентированные на анонимизацию, шифрование или пересылку. Это говорит о том, что пользователи BreachForums настроены крайне антиретроактивно и заботятся о конфиденциальности.

Предупреждение "Простор для маневра": Пользователи, говоря о "большом пространстве для маневра", могут иметь в виду, что злоумышленник может использовать механизмы регистрации этих личных почтовых ящиков (например, не требуя проверки номера мобильного телефона) для проведения корреляционного анализа, фишинга или запуска целевых атак на пользователей конкретных служб конфиденциальности.

9 января 2026 года - Пт
21:06

ИИ-агент станет главным вектором атак хакеров в 2026 году

Эксперты по кибербезопасности выступили с грозным предупреждением, предсказав, что в 2026 году агенты искусственного интеллекта станут главной мишенью для хакеров. Согласно исследованию специалистов по безопасности Palo Alto Networks, нехватка навыков в области кибербезопасности, которая в настоящее время составляет 4,8 миллиона человек, приведет к масштабному внедрению агентов искусственного интеллекта в организациях, что заставит злоумышленников перенести акцент своих атак с людей-операторов на самих агентов искусственного интеллекта.

Ключевые точки риска:

Постоянная уязвимость в режиме онлайн: Агенты искусственного интеллекта работают круглосуточно и подвержены риску быть использованными в любое время, а международные хакеры могут атаковать американские компании независимо от часовых поясов.

Усиление инсайдерской угрозы: скомпрометированные агенты искусственного интеллекта могут получить расширенный доступ к важнейшим API, информации о клиентах и инфраструктуре кибербезопасности

Отсутствие инструментов управления: в отчете подчеркивается необходимость создания новой "необязательной категории инструментов управления ИИ", включая агентов безопасности и аварийные выключатели.

Эксперты предсказывают, что это станет "разделительной линией между успехом и провалом ИИ "умного тела"".

20:52

Хакеры массированно атакуют инфраструктуру искусственного интеллекта: раскрыто 91 000+ вредоносных сессий

Исследователи безопасности зафиксировали всплеск скоординированных атак на инфраструктуру искусственного интеллекта: с октября 2025 года по январь 2026 года было зарегистрировано более 91 000 вредоносных сессий. Анализ выявил две различные кампании угроз, которые систематически используют расширенную поверхность атаки при развертывании ИИ.

Подробности события нападения:

Кампания № 1: Нацелившись на функцию извлечения модели Ollama и интеграцию с веб-крючком Twilio SMS, злоумышленники внедрили вредоносные URL-адреса реестра, сгенерировав 1 688 сессий за 48 часов в период Рождества.

Кампания 2: Запущенная 28 декабря 2025 года, два IP-адреса запустили 80 469 сессий в течение 11 дней на 73+ конечных точках с большой языковой моделью для систематического поиска неправильно настроенных прокси-серверов.

Задача: протестировать OpenAI-совместимые и Google Gemini API форматы, охватывающие основные семейства моделей GPT-4o, Claude, Llama, DeepSeek, Gemini, Mistral, Qwen и Grok.

08:50

Традиционная кибербезопасность не может защитить системы искусственного интеллекта, подтверждает исследование

Согласно новому исследованию, опубликованному 8 января в Harvard Business Review, традиционные средства защиты кибербезопасности не способны защитить системы генеративного искусственного интеллекта. Исследование объединяет данные опросов, интервью с руководителями и лабораторные анализы, чтобы выявить системные пробелы в безопасности.

Основные выводы:

Уязвимость цепочки поставок: цепочка поставок ИИ имеет структурные риски, включая возможность вредоносного внедрения аппаратных/программных компонентов в различных точках цепочки

Неправильная защита: традиционные средства защиты, разработанные для программного обеспечения, основанного на правилах, не могут защитить от генеративных систем ИИ, которые обучаются и адаптируются на основе данных.

Острая нехватка талантов: крайняя нехватка специалистов по ИИ-безопасности усугубляет дилемму защиты предприятий

Выводы исследования очевидны: руководители должны не ограничиваться "доводкой" приложений, а укреплять инфраструктуру и цепочки поставок, от которых зависит ИИ, и использовать сам ИИ в качестве передовой линии обороны для обеспечения устойчивости.

Загрузить больше тем