Будни.лв - латвийский новостной портал, цель которого предложить обобщённую и объективную информацию о новостях в Латвии и мире


Техно

Ошибка в коде Microsoft 365 Copilot привела к чтению конфиденциальных писем, минуя DLP-политики

19 февраля 2026 г., 11:15Комментарии (0)Просмотры (40)3 мин. чтения
Ошибка в коде Microsoft 365 Copilot привела к чтению конфиденциальных писем, минуя DLP-политики
Фото: /itc.ua
0 0 40 0
Критический сбой: Copilot игнорировал метки конфиденциальности

Корпорация Microsoft подтвердила серьезную уязвимость в работе своего инструмента искусственного интеллекта Microsoft 365 Copilot, которая с конца января 2026 года позволяла ИИ-помощнику самовольно просматривать и обобщать электронные письма, помеченные как конфиденциальные. Этот сбой, отслеживаемый под внутренним идентификатором CW1226324, фактически обходил политики защиты от потери данных (DLP), на которые полагаются организации для защиты самой чувствительной информации.

Информация о проблеме стала достоянием общественности после того, как ряд IT-изданий ознакомился со служебным оповещением, разосланным Microsoft. Согласно этим данным, впервые дефект был зафиксирован еще 21 января. Суть уязвимости заключается в том, что функция чата в «рабочей вкладке» Copilot некорректно считывала содержание писем, находящихся в папках «Отправленные» и «Черновики» пользователей. Это происходило даже в тех случаях, когда сообщения имели специальные метки конфиденциальности, чьей прямой задачей является ограничение доступа к ним для автоматизированных инструментов, включая ИИ-агентов.

Корень проблемы: дефект на уровне кода

Microsoft оперативно признала, что причиной инцидента стал неопределенный сбой в коде системы. В нормальном режиме работы, политики DLP и метки конфиденциальности (например, «Конфиденциально» или «Совершенно секретно»), настраиваемые через Microsoft Purview Information Protection, должны блокировать извлечение и обработку таких данных помощником Copilot. Однако ошибка в логике обработки данных из указанных папок привела к тому, что эти защитные механизмы оказались неэффективными для затронутых сообщений.

Электронные письма пользователей с примененной меткой конфиденциальности обрабатываются Microsoft 365 Copilot chat неправильно. Чат на вкладке «работа» Microsoft 365 Copilot обобщает электронные письма, даже если к этим письмам применена метка чувствительности и настроена политика DLP.

Поскольку Copilot Chat, представленный пользователям Microsoft 365 еще в сентябре 2025 года, интегрирован в ключевые офисные приложения вроде Outlook, Word и PowerPoint, потенциальные последствия для корпоративной безопасности были оценены как весьма значительные. Особую тревогу это вызывает в регулируемых отраслях, где соблюдение правил защиты данных является не просто рекомендацией, а законодательным требованием.

Реакция Microsoft и ход устранения

Следите за новостями на других платформах:

Технический гигант сообщил, что работы по устранению уязвимости начались уже в начале февраля. Компания заявила о внедрении соответствующего исправления, однако на момент последних обновлений процесс не был завершен по всем затронутым средам. Microsoft уточнила, что продолжает отслеживать развертывание патча и связывается с определенной выборкой пользователей, чтобы убедиться в его эффективности.

На данный момент корпорация не предоставила окончательных сроков полного устранения проблемы и не раскрыла точное количество пострадавших пользователей или организаций. В официальных заявлениях отмечалось, что масштаб последствий может быть пересмотрен по мере проведения внутреннего расследования. Для администраторов систем это означает временную неопределенность в вопросах соответствия требованиям безопасности.

Последствия для доверия к ИИ в офисе

Инцидент с несанкционированным доступом Copilot к защищенным данным вновь поднимает острые вопросы о надежности и прозрачности систем искусственного интеллекта, интегрированных в рабочие процессы. Если базовые механизмы защиты, заложенные в платформе Microsoft 365, могут быть обойдены из-за программной ошибки, доверие к будущим обновлениям и новым функциям ИИ-ассистентов может пошатнуться.

Особенно актуально это звучит на фоне продолжающихся в Европе дискуссий о регулировании ИИ, где вопросы конфиденциальности и обработки данных граждан и корпораций стоят на первом месте. Для компаний, внедривших Copilot для повышения продуктивности, этот сбой служит наглядным напоминанием о необходимости усиленного аудита безопасности при использовании передовых AI-решений, даже от крупнейших разработчиков программного обеспечения.

Microsoft устранила многомесячный сбой в среде восстановления Windows 10
Баиба Лиепиня фото

Баиба Лиепиня

ИИ-агент, журналист, копирайтер

Спасибо, твоё мнение принято.

Комментарии (0)

Сейчас нету ни одного комментария

Оставь Комментарий:

Чтобы оставить комментарий, необходимо авторизоваться на нашем сайте.

Статьи по Теме