Безопасность AIGC: предотвращение рисков утечки данных Microsoft Copilot

Microsoft Copilot известен как один из самых мощных инструментов повышения производительности на планете.
Copilot — это помощник по искусственному интеллекту, встроенный в каждое ваше приложение Microsoft 365 (Word, Excel, PowerPoint, Teams, Outlook и т. д.). Мечта Microsoft — избавиться от рутинной повседневной работы и дать людям возможность сосредоточиться на творческом решении проблем.

Microsoft второй пилот Известен как один из самых мощных инструментов повышения производительности на планете.

Copilot — это помощник по искусственному интеллекту, встроенный в каждое ваше приложение Microsoft 365 (Word, Excel, PowerPoint, Teams, Outlook и т. д.). Мечта Microsoft — избавиться от рутинной повседневной работы и дать людям возможность сосредоточиться на творческом решении проблем.

Copilot отличается от ChatGPT и других инструментов искусственного интеллекта тем, что у него есть доступ ко всему, над чем вы когда-либо работали в 365. Copilot мгновенно ищет и собирает данные из документов, презентаций, электронных писем, календарей, заметок и контактов.

Этоинформационная безопасностьПроблемы с командой. Copilot имеет доступ ко всем конфиденциальным данным, к которым имеет доступ пользователь, а этого зачастую слишком много. В среднем данные M365 компании 10% открыты для всех сотрудников.

Второй пилот также может быстро генерироватьНовые конфиденциальные данные.До революции искусственного интеллекта способность людей создавать и обмениваться данными намного превосходила наши возможности их защищать. Просто посмотрите на тенденции утечки данных.генеративный искусственный интеллектОгонь потушили керосином.

Когда дело доходит до генеративного ИИ в целом, здесь есть что раскрыть: отравление моделей, галлюцинации, дипфейки и многое другое. Однако в этой статье я остановлюсь именно наБезопасность данныхи как ваша команда может обеспечить безопасное развертывание Copilot.

Варианты использования Microsoft 365 Copilot#

Варианты использования генеративного искусственного интеллекта с такими пакетами для совместной работы, как M365, безграничны. Легко понять, почему так много команд ИТ и безопасности стремятся получить ранний доступ и подготовить планы развертывания. Прирост производительности будет огромным.

Например, вы можете открыть пустой документ Word и попросить Copilot составить предложение для клиента на основе целевого набора данных, который может включать страницы OneNote, презентации PowerPoint и другие документы Office. Всего за несколько секунд вы получите полное предложение.

Безопасность AIGC: предотвращение рисков утечки данных Microsoft Copilot

Вот еще примеры, которые Microsoft привела во время мероприятия:

  • Второй пилот может присоединиться к вашему собранию Teams и в режиме реального времени подводить итоги того, что обсуждается, фиксировать действия и сообщать вам, какие вопросы остались открытыми на собрании.
  • Copilot в Outlook может помочь вам сортировать входящие сообщения, расставлять приоритеты электронной почты, обобщать темы и генерировать ответы.
  • Copilot в Excel может анализировать необработанные данные и предоставлять вам информацию, тенденции и рекомендации.

Как работает Microsoft 365 Copilot#

Вот краткий обзор того, как обрабатывать подсказки Copilot:

  • Пользователи вводят запросы в таких приложениях, как Word, Outlook или PowerPoint.
  • Microsoft на основе разрешений пользователя M365Соберите бизнес-контекст пользователя.
  • Советы отправляются в LLM (например, GPT4) для генерации ответа.
  • Microsoft выполняет проверки ИИ, отвечающие за постобработку.
  • Microsoft генерирует ответ и отправляет команду обратно в приложение M365.
второй пилот Microsoft
Источник изображения: Microsoft

Второй пилот Microsoft 365 модель безопасности#

Для Microsoft всегда существовало крайнее противоречие между производительностью и безопасностью.

Это было продемонстрировано во время коронавируса, когда ИТ-команды быстро развернули Microsoft Teams, не понимая сначала, как работает базовая модель безопасности или каков статус разрешений M365 организации, групповых политик и политик ссылок.

хорошие новости:#

  • Изоляция арендатора.Copilot использует только данные из клиента M365 текущего пользователя. Инструмент AI не будет отображать данные от других арендаторов, где пользователь может быть гостем, а также от любых арендаторов, для которых может быть настроена межклиентская синхронизация.
  • границы обучения.Второй пилотНе будетИспользуйте любые свои бизнес-данные для обучения Copilot базовому LLM, используемому всеми арендаторами. тыНезачемБеспокойтесь о том, что ваши собственные данные появятся в ответах других пользователей в других арендаторах.

плохие новости:#

  • разрешения.Copilot отображает все данные организации, для которых у каждого пользователя есть как минимум разрешения на просмотр.
  • Этикетка.Контент, созданный CopilotНе будетНаследует метку MPIP файла, из которого Copilot получает ответы.
  • Человечность.Ответы второго пилота не являются гарантией того, что 100% является подлинным или безопасным; ответственность за проверку контента, созданного ИИ, должны нести люди.

Давайте рассмотрим плохие новости одну за другой.

Разрешения#

Если компания может легко обеспечить соблюдение минимальных привилегий в Microsoft 365, было бы неплохо предоставить Copilot только те разрешения, к которым у пользователя есть доступ.

Microsoft заявляет в своей документации по безопасности данных Copilot:

«Важно использовать модели разрешений, доступные в службах Microsoft 365, таких как SharePoint, чтобы гарантировать, что нужные пользователи или группы имеют правильный доступ к нужному контенту в вашей организации».

Источник: Данные, конфиденциальность и безопасность для Microsoft 365 Copilot.

Однако по опыту мы знаем, что большинству организаций далеко не хватает минимальных привилегий. Просто взгляните на некоторые статистические данные из собственного отчета Microsoft о состоянии рисков облачных разрешений.

второй пилот Microsoft

Эта картина соответствует тому, что видит Варонис, когда он ежегодно проводит тысячи оценок рисков данных для компаний, использующих Microsoft 365. В нашем отчете «Большое раскрытие данных SaaS» мы обнаружили, что средний арендатор M365 имеет:

  • Более 40 миллионов уникальных разрешений
  • Более 113 тысяч конфиденциальных записей находятся в публичном доступе
  • 27 тысяч+ общих ссылок

Почему это происходит? Разрешения Microsoft 365 чрезвычайно сложны. Просто подумайте обо всех способах доступа пользователей к данным:

  • Прямые права пользователя
  • Разрешения группы Microsoft 365
  • Локальные разрешения SharePoint (с настраиваемыми уровнями)
  • гостевой доступ
  • внешний доступ
  • публичный доступ
  • Доступ по ссылке (любой, для всей организации, прямой, гостевой)

Что еще хуже, разрешения в основном находятся в руках конечного пользователя, а не ИТ-специалистов или службы безопасности.

Этикетка#

Microsoft в значительной степени полагается на метки конфиденциальности для обеспечения соблюдения политик DLP, применения шифрования и широкого предотвращения утечки данных. Однако на практике пусть меткаИграть рольЭто сложно, особенно если вы полагаетесь на то, что люди будут навешивать ярлыки конфиденциальности.

Microsoft рисует радужную картину маркировки и блокировки как окончательной системы защиты данных. Реальность показала более мрачный сценарий. Когда люди создают данные, ярлыки часто отстают или устаревают.

Блокировка или шифрование данных может усложнить рабочие процессы, а технология маркировки ограничена определенными типами файлов. Чем больше ярлыков имеет организация, тем больше вероятность того, что пользователи запутаются. Особенно это актуально для крупных организаций.

Эффективность защиты данных на основе тегов, безусловно, снизится, поскольку мы позволим ИИ генерировать на порядки больше данных, для которых требуются точные и автоматически обновляемые теги.

Мой лейбл в порядке?#

Varonis может проверять и улучшать метки конфиденциальности Microsoft вашей организации посредством сканирования, обнаружения и исправления:

  • Конфиденциальные документы без тегов
  • Конфиденциальные файлы с неправильными метками
  • Неконфиденциальные файлы с конфиденциальными метками

Человечество#

Искусственный интеллект сделает людей ленивыми. Контент, создаваемый такими LLM, как GPT4, не просто хорош, он потрясающий. Во многих случаях скорость и масса намного превышают человеческие возможности. В результате люди начали слепо доверять ИИ в том, что он сможет реагировать безопасно и точно.

Мы видели реальные сценарии, когда Copilot составлял предложения для клиентов и содержал конфиденциальные данные, принадлежащие совершенно другим клиентам. Пользователь нажимает «отправить» после быстрого просмотра (или отсутствия просмотра), и теперь вы столкнулись с нарушением конфиденциальности или данных.

Подготовьте своих арендаторов к обеспечению безопасности Copilot#

На запуске CopilotДоПонимание вашего состояния безопасности данных имеет решающее значение. Теперь, когда Copilot общедоступен, самое время реализовать меры безопасности.

Varonis защищает тысячи клиентов Microsoft 365 с помощью нашей платформы безопасности данных, которая обеспечивает представление рисков в режиме реального времени и возможность автоматически применять минимальные привилегии.

Мы можем помочь вам устранить самые большие угрозы безопасности с помощью Copilot практически без каких-либо ручных усилий. С Varonis для Microsoft 365 вы можете:

  • Автоматически обнаруживайте и классифицируйте весь конфиденциальный контент, созданный искусственным интеллектом.
  • Автоматически обеспечивает правильное применение меток MPIP.
  • Автоматически применять минимальные привилегии.
  • Постоянно отслеживайте конфиденциальные данные в M365, предупреждайте и реагируйте на ненормальное поведение.

Оригинал статьи, автор: Chief Security Assessment, при перепечатке указать источник: https://cncso.com/ru/preventing-risk-of-data-leakage-from-microsoft-copilot.html

Нравиться (3)
Предыдущий 5 декабря 2023 пп9:23
Следующий 7 декабря 2023 дп 8:19

связанное предложение