2026年1月18日 • 日
12:00

风险洞察:Shadow AI 引爆个人 LLM 账号数据泄露

最新云威胁报告显示,员工使用个人账户访问 ChatGPT、Google Gemini、Copilot 等 LLM 工具已成为企业数据泄露的主渠道之一,genAI 相关的数据策略违规平均每月高达 223 起,较去年翻倍增长。 报告指出,部分组织中发往生成式 AI 应用的提示数量在一年内增长六倍,头部 1% 企业每月提交提示超过 140 万条,其中包含源代码、合同文本、客户资料甚至凭据等高敏数据,一旦被用于模型训练或遭二次窃取,将给合规与知识产权带来长期不可逆风险。 这类 Shadow AI 的共性在于“看不见、管不住”:安全团队往往只盯住官方接入的大模型,而忽视浏览器、个人账号和移动端的灰色通道,未来还将叠加基于会话上下文的个性化广告与第三方插件生态,进一步模糊数据边界。 企业应尽快建立 genAI 使用策略与分类分级规范,借助 CASB/SASE 对 AI 流量进行识别与阻断,对高敏部门默认禁止个人 LLM 访问,并引入企业版受控 LLM 作为替代,配套审计与数据最小化策略。

风险洞察:Shadow AI 引爆个人 LLM 账号数据泄露
11:35

ChatGPT 引入对话式广告:AI 盈利模式背后的数据安全与合规新挑战

OpenAI 宣布在 ChatGPT 免费版与 Go 版本中测试会话内广告,这一商业化调整同时把“广告合规与数据安全”推上台前。 官方强调不会向广告商出售对话数据、广告与回答逻辑隔离,但并未细化用于个性化投放的数据类型和处理路径,这正是安全与合规团队需要重点审视的灰区。 从技术路径看,聊天式广告需要把对话上下文、兴趣信号与用户画像做实时特征抽取,再通过推荐或排序模型选出“相关赞助内容”,这要求在日志采集、特征生成、模型训练和推送链路中建立最小化采集、脱敏与用途限定控制,否则极易演变为“隐性画像 + 越界再利用”。 对企业安全团队而言,一方面要将此类“对话式 AI 广告”纳入第三方服务风险评估,排查是否存在跨区域数据流转、监管红线(如未成年人、敏感场景广告屏蔽策略)与审计缺口;另一方面也要反向审视自身内部的 AI 助手和客服机器人,是否同样存在“借交互顺手做广告/画像”的冲动和暗箱逻辑。 可以预见,面向未来的大模型产品安全,将从单纯讨论“模型越权、提示注入”扩展到“人机对话中的隐性营销边界”,如何在可持续盈利、用户信任与监管要求之间设计透明可控的广告与数据治理机制,正成为下一轮 AI 安全实践的关键命题。

ChatGPT 引入对话式广告:AI 盈利模式背后的数据安全与合规新挑战
09:18

风险洞察:2026全球企业安全焦点转向AI漏洞

报告核心发现:
WEF(世界经济论坛)在2025年8-10月期间对全球800名企业从业者进行问卷调查,结果于2026年1月发布。调查显示,94%的高管认为AI是2026年网络安全格局中最显著的变革驱动力;87%的受访者将AI相关漏洞列为增长最快的网络安全风险。与2025年的调查相比,企业评估AI工具安全性的比例从37%剧增至64%。从攻防角度看,企业既担心攻击者利用AI加速攻击速度(72%关注),也在投资AI防御工具。

AI安全三大核心隐患:
CSO们具体识别的Top 3风险依次为:
(1)数据泄露与隐私暴露(30%)——AI模型训练数据被投毒或推理时敏感信息被提取;
(2)对手AI能力提升(28%)——恶意行为人利用AI生成钓鱼邮件、自适应恶意软件、虚假舆论;
(3)AI系统技术安全性(15%)——模型后门、权限混淆、提示注入等AI特有漏洞。
与此同时,73%企业已从2025年的”勒索软件防御优先”转向2026年的”AI驱动欺诈与网络钓鱼防御”。

AI智能体权限爆炸问题:
CyberArk与其他安全厂商报告指出一个关键趋势:非人类身份(machine identities)即将成为第一大云侵害向量。到2026年,每个AI智能体都是一个”身份”——需要数据库凭证、云服务token、代码仓库密钥等。随着组织部署数十乃至数百个AI智能体,这些身份累积的权限呈指数增长,成为攻击者目标。OWASP新增的”工具误用”(tool misuse)攻击向量尤其危险:攻击者在不修改AI指令前缀(system prompt)的前提下,通过恶意数据注入(如订单地址字段中的提示注入),诱导AI执行非预期的API调用、权限提升或数据窃取操作。

前瞻性应对策略:

实施AI身份与访问治理(IAM):给每个AI智能体分配最小必需权限,定期审计其凭证与API调用日志

部署表达式与提示防护:在AI代理的输入验证层增加指令注入检测,对不信任的外部数据源进行隔离处理

建立AI供应链信任体系:审查第三方AI模型、插件与数据源的安全来源,防止后门模型被部署

扩展AI感知SIEM:传统日志分析已难以应对AI的高度自主性,需要专用的AI行为异常检测

组建AI安全应急响应团队:因为传统的网络安全团队缺乏AI特定威胁的应急响应经验

趋势洞察:

2026年将是从”AI赋能安全防御”向”AI安全治理体系化”的转折点。不再是简单地”用AI打击恶意AI”,而是要在身份管理、权限治理、审计日志、应急响应等全流程中融入AI风险意识。那些仍停留在”AI好处论”而忽视权限管理的企业,将面临最大的代价。

风险洞察:2026全球企业安全焦点转向AI漏洞
2026年1月13日 - 火災
23:00

AI 网络攻击成新趋势:2025 Q4 攻击样本预测试 2026 AI安全风险

セキュリティ・レポートによると、2025年第4四半期に自律型AIエージェントを利用したサイバー攻撃の事例が複数現れており、攻撃者はインテリジェンスによる情報収集、横の動き、権限の昇格を自動化することで、攻撃対象領域を大幅に拡大している。 一部の分析では、国家レベルの脅威行為者がすでにAIエージェントを使用して、実際の戦闘で攻撃チェーンの80%-90%ステップを実行しており、スピードと隠密性は従来の人間のハッカーチームを上回っていると指摘している。 専門家は、大規模なモデルと自動化されたフレームワークがさらに沈み込むにつれて、「自律型AI攻撃」は2026年に、特に重要なインフラやクラウド環境を標的とした、従来のランサムウェアやスピアフィッシングよりも破壊力のある新たな主流の脅威へと進化する可能性があると予測している。

22:59

2026年に急増するAI詐欺とデータ侵害

エクスペリアンの最新予測によると、AIは2026年にサイバーセキュリティの中核的脅威のひとつとなり、2025年上半期だけで全世界で8,000件以上のデータ漏えいと約3億4,500万件の記録が流出するという。 一方、エクスペリアンとフォーチュンは、AIを活用した詐欺は2026年も急増すると報告しており、前年の損失額はすでに125億ドルと見積もられているほか、金融、電子商取引、ソーシャル・プラットフォームでディープ・カウンセティングやスマート・フィッシングが急速に普及している。 報告書によると、AIツールは詐欺の能力を「民主化」しており、スキルの低い攻撃者が高度にリアルなテキストメッセージや音声、合成動画を一括生成することを可能にしているため、従来の詐欺対策ルールではこうした新たな攻撃パターンを時間内に認識することが難しくなっている。

22:56

世界のサイバーセキュリティ展望 2026年:AIがサイバーセキュリティ攻撃拡大の最大のリスクに

Global Cybersecurity Outlook 2026」報告書によると、調査対象となった組織のうち87%が、AI関連の脆弱性を2025年以降最も急成長しているサイバーリスクと考えており、AIは攻撃と防御の両面を強化しているという。 報告書によると、77%の組織がフィッシング検知、異常侵入対応、ユーザー行動分析などのセキュリティ業務にAIを導入しているが、データ漏洩やモデルの悪用は経営幹部の最大の懸念事項の一つとなっている。 AIツールのセキュリティを積極的に評価している組織の割合は、2025年と比較して37%から64%に増加しており、組織が「やみくもにAIを導入する」から「セキュリティ・ガバナンスを優先する」方向に移行していることを示唆している。

2026年1月11日
10:23

BreachForumsダークウェブ・フォーラムの履歴データベースが大規模流出

 2022年以来、BreachForumsはデータ漏洩とハッキング取引のための世界最大かつ最も悪名高いフォーラムの1つとなっている。このアンダーグラウンドのデータバザールは、ハッカーたちが軍資金を誇示する舞台であるだけでなく、多くの大規模なデータ流出や身代金要求キャンペーンの発信地でもある。もともとはコナー・フィッツパトリック(ID "pompompurin")によって設立されたBreachForumsは、2023年、シャイニー・ハンターズ(ID "ShinyHunters")によって運営を引き継がれた。ShinyHuntersが運営を引き継いだ。その後、MyBB 0dayのためにオフラインになり、その際にいくつかのメモが公開されたが、その真偽は不明である。今年6月、フランスと米国が協力し、ShynyHunters、Hollow、Noct、Depressedを含む多くの中心メンバーを逮捕した。
事件の核心部分
リーク元:オリジナルのBreachForums内のメンバーからとされる。

流出したコンテンツ:breachforum.7zというzipファイル:

完全なSQLデータベースファイル:ユーザー登録情報、資格情報などのコアデータが含まれています。

ユーザーPGPキー:暗号化通信のセキュリティに影響を与える可能性がある。

声明文書:長い、様式化された、「詩的な」テキスト(.txt)で、その内容はAIによる装飾の可能性、あるいはリーカーの声明であることが示唆されている。

データの真正性:データは、既存のユーザーによって、彼らが文書で使用した一時的な電子メールアドレスを通じて、真正かつ最新のものであることが確認されている。

ダウンロード元:https://shinyhunte[...]rs/breachforum.7z(注:セキュリティ上の理由からリンクは無害化されています。)

漏洩データ分析(メールドメインランキング)
流出したデータにおける登録メールアドレスの統計的な順位は以下の通りで、明らかにフォーラムのユーザー層の好みを反映しており、私的なメールサービスや一時的なメールサービスの割合が非常に高い:

順位 メールボックス ドメイン名 回数 サービスタイプ/機能
1 gmail.com 239,747 商用メールボックスの主流
2 proton.me 29,851 エンド・ツー・エンドで暗号化されたプライバシー・メールボックス
3 protonmail.com 12,382 エンドツーエンドで暗号化されたプライバシーメールボックス
4 onionmail.org 4,668 Torネットワーク専門の匿名暗号化メールボックス
5 cock.li 4,577 個人認証なしの匿名性を重視したメールホスティングサービス
6 yahoo.com 4,478 商業用メールボックスの主流
7 qq.com 3,290 商業用メールボックスの主流
8 mozmail.com 2,395 Firefox Relayが提供するプライバシー転送メールボックス
9 tutanota.com / tutamail.com 2,294 エンドツーエンドで暗号化されたプライバシーメールボックス
10 dnmx.org 1,441 匿名メールサービス
データ分析の解釈:

プライバシー保護サービスの高い集中度:上位10ドメインの半分以上(Proton、OnionMail、Cock.li、Mozilla Relay、Tuta)は、匿名化、暗号化、転送に焦点を当てたプライバシー保護サービスです。このことは、BreachForumsのユーザーが極めて反体制的でプライバシーに敏感であることを示している。

"操作の余地 "に関する警告:ユーザーが "操作の余地が大きい "と言っているのは、攻撃者がこれらのプライベート・メールボックスの登録メカニズムを悪用して(例えば、携帯電話番号認証を必要としない)、相関分析やフィッシングを行ったり、特定のプライバシー・サービスのユーザーに対して標的型攻撃を仕掛けたりすることができるという事実を指しているのかもしれない。

生年月日と出生地:2026年1月9日 - キム
21:06

2026年、AIエージェントがハッカーの主要な攻撃手段となる

サイバーセキュリティの専門家は、2026年にはAIエージェントがハッカーの中心的な標的になると予測し、厳しい警告を発している。パロアルトネットワークスのセキュリティ専門家による調査によると、現在480万人に達しているサイバーセキュリティのスキル格差は、組織におけるAIエージェントの大規模な導入を促進し、攻撃者が攻撃の焦点を人間のオペレーターからAIエージェント自体に移すことを促すという。

主なリスクポイント

オンライン上の継続的な脆弱性:AIエージェントは24時間365日稼働しており、いつでも悪用される危険性があり、海外のハッカーは時間帯に関係なく米国企業を攻撃できる。

インサイダー脅威の増幅:危殆化したAIエージェントが重要API、顧客情報、サイバーセキュリティ基盤への高度なアクセスを獲得する可能性

ガバナンスツールの欠如:報告書は、セキュリティエージェントや緊急遮断スイッチなど、新たな「AIガバナンスツールの譲れないカテゴリー」の必要性を強調している。

専門家は、これが「スマートボディAIの成功と失敗を分ける境界線」になると予測している。

20:52

ハッカーがAIインフラを大規模攻撃:91,000以上の悪意あるセッションが暴露される

2025年10月から2026年1月までの間に91,000を超える悪意のあるセッションが記録され、セキュリティ研究者はAIインフラに対する組織的攻撃の急増を記録した。分析の結果、AI導入による攻撃対象の拡大を組織的に悪用する2つの異なる脅威キャンペーンが明らかになりました。

攻撃イベントの詳細

キャンペーン#1: Ollamaモデルのプル機能とTwilio SMSウェブフック統合をターゲットに、攻撃者は悪意のあるレジストリURLを注入し、クリスマス期間中の48時間に1,688セッションを発生させた。

キャンペーン2:2025年12月28日に開始され、2つのIPアドレスが73以上の大規模な言語モデルのエンドポイントに11日間で80,469のセッションを開始し、設定ミスのプロキシを組織的にスカウトした。

対象範囲:GPT-4o、Claude、Llama、DeepSeek、Gemini、Mistral、Qwen、Grokの主要なモデルファミリーをカバーするOpenAI互換およびGoogle Gemini APIフォーマットをテストする。

08:50

従来のサイバーセキュリティではAIシステムを保護できないことが研究で確認される

1月8日付のハーバード・ビジネス・レビュー誌に掲載された新たな調査結果によると、従来のサイバーセキュリティ対策では、AIシステムを保護することはできない。この研究では、調査データ、経営陣へのインタビュー、ラボでの分析を組み合わせ、システム的なセキュリティギャップを明らかにしている。

核となる発見

サプライチェーンの脆弱性:AIのサプライチェーンには、チェーンの様々な時点でハードウェア/ソフトウェア部品が悪意を持って埋め込まれる可能性など、構造的なリスクがある。

誤った防御:ルールベースのソフトウェア用に設計された従来の防御では、データから学習し適応する生成的AIシステムを防御できない。

深刻な人材不足:AIセキュリティ専門家の極端な不足が企業の防衛ジレンマを悪化させる

この調査の結論は明確である。リーダーたちは、アプリケーションをいじるだけでなく、AIが依存するインフラやサプライチェーンを強化し、同時にAIそのものをレジリエンスを確保するための最前線の防衛手段として活用しなければならない。

さらにトピックを読み込む