AIGC安全:预防 Microsoft Copilot 数据泄露风险

Microsoft Copilot 被称为地球上最强大的生产力工具之一。
Copilot 是一款人工智能助手,内置于您的每个 Microsoft 365 应用程序(Word、Excel、PowerPoint、Teams、Outlook 等)中。微软的梦想是消除日常工作中的苦差事,让人类专注于成为创造性的问题解决者。

Microsoft Copilot 被称为地球上最强大的生产力工具之一。

Copilot 是一款人工智能助手,内置于您的每个 Microsoft 365 应用程序(Word、Excel、PowerPoint、Teams、Outlook 等)中。微软的梦想是消除日常工作中的苦差事,让人类专注于成为创造性的问题解决者。

Copilot 与 ChatGPT 和其他人工智能工具的不同之处在于,它可以访问您在 365 中处理过的所有内容。Copilot 可以立即搜索和编译来自文档、演示文稿、电子邮件、日历、笔记和联系人的数据。

这就是信息安全团队的问题。Copilot 可以访问用户可以访问的所有敏感数据,这通常太多了。平均而言,公司 10% 的 M365 数据向所有员工开放。

Copilot 还可以快速生成必须受到保护的全新敏感数据。在人工智能革命之前,人类创建和共享数据的能力远远超过了保护数据的能力。只需看看数据泄露趋势即可。生成式人工智能为这场大火浇上了煤油。

就整个生成式人工智能而言,有很多东西需要解开:模型中毒、幻觉、深度伪造等。不过,在这篇文章中,我将特别关注数据安全以及您的团队如何确保安全的 Copilot 推出。

Microsoft 365 Copilot 用例#

生成式人工智能与 M365 等协作套件的用例是无限的。很容易理解为什么如此多的 IT 和安全团队迫切希望获得早期访问权并准备他们的推出计划。生产力的提升将是巨大的。

例如,您可以打开一个空白 Word 文档,并要求 Copilot 根据目标数据集为客户起草提案,其中可能包括 OneNote 页面、PowerPoint 演示文稿和其他 Office 文档。只需几秒钟,您就会得到一个完整的提案。

AIGC安全:预防 Microsoft Copilot 数据泄露风险

以下是微软在发布会上给出的更多示例:

  • Copilot 可以加入您的 Teams 会议并实时总结正在讨论的内容、捕获行动项目并告诉您会议中哪些问题未解决。
  • Outlook 中的 Copilot 可以帮助您分类收件箱、确定电子邮件的优先级、总结话题并为您生成回复。
  • Excel 中的 Copilot 可以分析原始数据并为您提供见解、趋势和建议。

Microsoft 365 Copilot 的工作原理#

以下是如何处理 Copilot 提示的简单概述:

  • 用户在 Word、Outlook 或 PowerPoint 等应用程序中输入提示。
  • Microsoft根据用户的 M365 权限收集用户的业务上下文。
  • 提示被发送到 LLM(如 GPT4)以生成响应。
  • Microsoft 执行负责后处理的 AI 检查。
  • Microsoft 生成响应并命令发回 M365 应用程序。
微软副驾驶
图片来源:微软

Microsoft 365 Copilot 安全模型#

对于 Microsoft,生产力和安全性之间始终存在着极端的紧张关系。

在冠状病毒期间,IT 团队迅速部署 Microsoft Teams,而没有首先完全了解底层安全模型的工作原理或组织的 M365 权限、组和链接策略的状况如何,这一点就得到了体现。

好消息:#

  • 租户隔离。Copilot 仅使用当前用户的 M365 租户中的数据。AI 工具不会显示来自用户可能是访客的其他租户的数据,也不会显示来自可能设置跨租户同步的任何租户的数据。
  • 训练边界。Copilot不会使用您的任何业务数据来培训 Copilot 为所有租户使用的基础 LLM。您不必担心您的专有数据会在对其他租户中的其他用户的响应中出现。

坏消息:#

  • 权限。Copilot 显示各个用户至少具有查看权限的所有组织数据。
  • 标签。Copilot 生成的内容不会继承 Copilot 从中获取响应的文件的 MPIP 标签。
  • 人类。副驾驶的回答不能保证 100% 真实或安全;人类必须负责审查人工智能生成的内容。

让我们一一接受坏消息。

权限#

如果公司能够轻松地在 Microsoft 365 中强制执行最小权限,则仅向 Copilot 授予用户可以访问的权限将是一个好主意。

微软在其Copilot 数据安全文档中指出:

“重要的是,您使用 Microsoft 365 服务中提供的权限模型(例如 SharePoint)来帮助确保正确的用户或组对组织内的正确内容具有正确的访问权限。”

来源:Microsoft 365 Copilot 的数据、隐私和安全

然而,我们凭经验知道,大多数组织都远未达到最低限度的特权。只需看一下 Microsoft 自己的云权限风险状态报告中的一些统计数据即可。

微软副驾驶

此图与 Varonis 每年为使用 Microsoft 365 的公司执行数千次数据风险评估时所看到的情况相符。在我们的报告《SaaS 数据大曝光》中,我们发现 M365 租户平均具有:

  • 40+ 百万个独特权限
  • 公开共享 113K+ 敏感记录
  • 27K+ 分享链接

为什么会出现这种情况?Microsoft 365 权限极其复杂。只需考虑一下用户访问数据的所有方式:

  • 直接用户权限
  • Microsoft 365 组权限
  • SharePoint 本地权限(具有自定义级别)
  • 访客访问
  • 外部访问
  • 公共访问
  • 链接访问(任何人、组织范围、直接、访客)

更糟糕的是,权限主要掌握在最终用户手中,而不是 IT 或安全团队。

标签#

Microsoft 严重依赖敏感度标签来执行 DLP 策略、应用加密并广泛防止数据泄露。然而,在实践中,让标签发挥作用很困难,特别是如果您依赖人类来应用敏感度标签。

微软描绘了一幅将标签和屏蔽作为数据最终安全网的美好图景。现实揭示了更惨淡的情景。当人类创建数据时,标签经常滞后或变得过时。

阻止或加密数据可能会增加工作流程的阻力,并且标签技术仅限于特定的文件类型。组织拥有的标签越多,用户就越容易感到困惑。对于大型组织来说,这种情况尤其严重。

当我们让人工智能生成更多数量级的需要准确和自动更新标签的数据时,基于标签的数据保护的功效肯定会降低。

我的标签还好吗?#

Varonis 可以通过扫描、发现和修复来验证和改进组织的 Microsoft 敏感度标签:

  • 没有标签的敏感文件
  • 标签不正确的敏感文件
  • 带有敏感标签的非敏感文件

人类#

人工智能会让人类变得懒惰。像 GPT4 这样的法学硕士生成的内容不仅好,而且非常棒。在许多情况下,速度和质量远远超过人类的能力。结果,人们开始盲目相信人工智能能够做出安全、准确的反应。

我们已经看到过现实场景,其中 Copilot 为客户起草提案,并包含属于完全不同客户的敏感数据。用户快速浏览(或没有浏览)后点击“发送”,现在您面临着隐私或数据泄露的情况。

让您的租户为 Copilot 做好安全准备#

在推出 Copilot之前了解您的数据安全状况至关重要。现在 Copilot 已普遍可用,现在是实施安全控制的好时机。

Varonis 通过我们的数据安全平台保护数千名 Microsoft 365 客户,该平台提供实时风险视图以及自动强制执行最低权限的能力。

我们可以帮助您通过 Copilot 解决最大的安全风险,几乎无需手动操作。借助 Varonis for Microsoft 365,您可以:

  • 自动发现并分类所有人工智能生成的敏感内容。
  • 自动确保正确应用 MPIP 标签。
  • 自动强制执行最小权限。
  • 持续监控 M365 中的敏感数据并对异常行为发出警报和响应。

原创文章,作者:首席安全官,如若转载,请注明出处:https://www.cncso.com/preventing-risk-of-data-leakage-from-microsoft-copilot.html

(3)
上一篇 2023年12月5日 下午9:23
下一篇 2023年12月7日 上午8:19

相关推荐