Масштабный инцидент: ИИ-ассистент получил доступ к личной переписке
Корпорация Microsoft подтвердила факт серьезного сбоя в работе своего инструмента искусственного интеллекта Microsoft 365 Copilot, который в течение нескольких недель, начиная с конца января 2026 года, позволял ИИ-ассистенту несанкционированно просматривать и обобщать содержимое электронных писем пользователей, помеченных как конфиденциальные. Инцидент вызвал волну обеспокоенности среди IT-специалистов и пользователей относительно безопасности данных в экосистеме Windows 11.
Проблема, которой присвоен внутренний идентификатор CW1226324, заключалась в том, что функция чата в рабочей вкладке Copilot некорректно обрабатывала сообщения, находящиеся в папках «Отправленные» и «Черновики». Этот дефект, вызванный, по заявлению компании, ошибкой в коде, приводил к тому, что ИИ игнорировал даже явные метки конфиденциальности, которые должны были ограничивать доступ к чувствительной информации для автоматизированных систем.
Обход DLP-политик и тревога в бизнес-среде
Особенную тревогу вызвал тот факт, что уязвимость позволяла Copilot обходить политики предотвращения потери данных (DLP — Data Loss Prevention), которые организации используют для защиты наиболее чувствительной корпоративной информации. В нормальном режиме работы, такие метки, как «Конфиденциально», должны блокировать передачу данных для обработки большими языковыми моделями (LLM).
Эксперты отмечают, что это поведение сервиса прямо нарушает базовые принципы приватности и безопасности, которые Microsoft гарантировала для своей операционной системы и пакета M365. Аналитики предполагают, что система могла непреднамеренно собирать эти данные либо для обучения нейросети, либо для других внутренних процессов, о которых пользователи не были уведомлены.
Первые сообщения о странной активности ИИ-ассистента были зафиксированы еще 21 января 2026 года. Хотя Microsoft начала развертывание исправления в начале февраля, подробности о количестве пострадавших организаций и пользователей до сих пор не раскрыты.
Последствия и реакция на фоне других проблем с конфиденциальностью
Этот скандал разгорается на фоне уже существующей напряженности вокруг интеграции ИИ в продукты Microsoft. Ранее функции, подобные Recall в Windows 11, которые делают постоянные снимки экрана, уже подвергались критике за потенциальное нарушение GDPR, особенно в европейских странах, включая Латвию, где действуют строгие правила защиты данных.
В Европе уже наблюдались прецеденты, когда регулирующие органы проявляли осторожность: ИТ-департамент Европарламента, например, временно заблокировал встроенные ИИ-функции на рабочих устройствах из-за опасений передачи конфиденциальной переписки в облако.
Сбой с Copilot служит наглядным напоминанием: несмотря на обещания Microsoft о том, что ИИ-агенты будут соответствовать высоким стандартам прозрачности и безопасности, ошибки на уровне кода могут свести на нет все защитные механизмы. Компании, внедрившие Copilot для повышения продуктивности, теперь вынуждены проводить усиленный аудит безопасности своих рабочих процессов.
Что дальше: Ожидание патча и призывы к бдительности
Microsoft пообещала, что в ближайшее время выпустит полноценный патч, который пройдет тщательное тестирование. Пока же пользователям, особенно тем, кто работает с конфиденциальной информацией, рекомендуется проявлять максимальную осторожность при использовании интегрированных ИИ-сервисов, пока полная надежность системы не будет восстановлена. Специалисты также напоминают о необходимости следить за обновлениями безопасности, особенно тем, кто пока использует более старые версии ОС, не имеющие расширенной поддержки.











Следите за новостями на других платформах: