Стремительный рост угроз: ИИ-сервисы как канал утечек
Объем конфиденциальной информации, которую сотрудники российских компаний отправляют в общедоступные генеративные нейросети, такие как ChatGPT и Google Gemini, продемонстрировал беспрецедентный рост. Согласно исследованию, проведенному компанией «Солар» и представленному ТАСС, за 2025 год этот показатель увеличился в колоссальные 30 раз по сравнению с 2024 годом. Этот скачок сигнализирует о новом витке угроз в сфере информационной безопасности.
Аналитики «Солара» утверждают, что основная движущая сила этого процесса — сами работники. Они активно интегрируют мощные ИИ-инструменты в свои ежедневные рабочие процессы, часто не осознавая или недооценивая сопутствующие риски неконтролируемой передачи данных.
Типы данных и главный виновник утечек
Масштаб проблемы заключается в том, что пользователи не ограничиваются рутинными запросами. В нейросети массово загружаются материалы, составляющие коммерческую тайну и чувствительные данные. В этот список входят:
- Презентации и стратегические документы.
- Аналитические таблицы и отчеты.
- Фрагменты программного кода.
- Клиентские базы.
Исследование указывает, что наибольшая доля утечек приходится на один из самых популярных сервисов: аналитики «Солара» зафиксировали, что 46% всех конфиденциальных файлов и промптов проходит именно через ChatGPT. Сотрудники используют чат-боты для ускорения анализа больших объемов информации, создания саммари и написания кода, что делает их невольными источниками компрометации данных.
Масштаб исследования и затронутые сектора
Анализ проводился на основе мониторинга сетевого трафика 150 организаций, являющихся клиентами «Солара». Выборка охватила широкий спектр критически важных секторов российской экономики, включая:
- Государственный сектор.
- Финансовые организации.
- Промышленность.
- Ритейл и E-commerce.
- Телекоммуникации и IT.
Хотя общий интерес к внедрению ИИ растет, на фоне которого, по данным других исследований, компании в целом могут переходить на отечественные аналоги ИИ-решений из соображений безопасности, проблема неконтролируемого внешнего трафика остается острой. Этот рост угроз происходит на фоне того, что, по данным «Солара», около 60% российских компаний на начало 2026 года до сих пор не разработали формализованные правила или политики, регламентирующие использование сотрудниками общедоступных ИИ-сервисов в рабочих целях.
Последствия отсутствия контроля и призыв к действию
Отсутствие четких внутренних регламентов создает критические уязвимости. Когда сотрудники загружают в публичные ИИ-модели данные, они, по сути, передают их на внешние серверы, где эти данные могут быть использованы для дальнейшего обучения моделей или даже стать объектом несанкционированного доступа. Для бизнеса, особенно в финансовом и промышленном секторе, утечка таких материалов может привести не только к финансовым потерям, но и к репутационному ущербу и, возможно, регуляторным последствиям.
Сотрудники неосознанно становятся одной из причин утечек информации, поскольку стремятся «упростить» рутинные рабочие задачи с помощью доступных ИИ-ассистентов, не задумываясь о рисках.
Эксперты в области кибербезопасности давно указывают на то, что ИИ-сервисы превращаются в один из ключевых векторов утечки корпоративных знаний. В то время как в мире обсуждаются новые законы и стандарты, регулирующие применение ИИ (например, риск-ориентированный подход в ЕС), российскому бизнесу необходимо срочно внедрять внутренние механизмы контроля трафика и обучать персонал основам безопасного использования передовых технологий.











Следите за новостями на других платформах: