Будни.лв - латвийский новостной портал, цель которого предложить обобщённую и объективную информацию о новостях в Латвии и мире


Латвия

Tele2 предупреждает об участившихся случаях мошенничества с использованием фейкового ChatGPT

16 февраля 2026 г., 16:16Комментарии (0)Просмотры (40)3 мин. чтения
Tele2 предупреждает об участившихся случаях мошенничества с использованием фейкового ChatGPT
Фото: LA.lv
0 0 40 0
Новая волна киберугроз: опасность поддельного ChatGPT

Мультисервисный оператор «Tele2» обратился к интернет-пользователям с настоятельной просьбой проявить бдительность в отношении новых схем мошенничества, нацеленных на кражу персональных данных. В центре внимания злоумышленников оказались поддельные версии популярной нейросети ChatGPT. Как сообщает портал LA.lv, именно через эти фальшивые сайты аферисты пытаются завладеть конфиденциальной информацией граждан и другими чувствительными сведениями.

Распространение поддельных ИИ-сервисов стало одним из актуальных рисков в сфере кибербезопасности. Мошенники активно используют громкие названия популярных технологий, чтобы вызвать доверие у невнимательных пользователей. В данном случае они эксплуатируют ажиотаж вокруг возможностей искусственного интеллекта (ИИ).

Признаки фишинговых ресурсов, связанных с ChatGPT

Специалисты «Tele2» выявили ряд тревожных маркеров, которые могут указывать на то, что сайт, претендующий на роль сервиса ChatGPT, является мошенническим. Эти признаки служат важным ориентиром для пользователей, помогая им отличить легальный ресурс от фишинговой ловушки.

Один из наиболее очевидных индикаторов, по данным оператора, — это использование русского языка на стартовой странице. Хотя сам по себе русский язык не является однозначным доказательством недобросовестности, в контексте выявления источников киберугроз он служит важным сигналом. Наличие русскоязычного интерфейса на сайте, который, предположительно, должен быть международным или англоязычным, намекает на возможную причастность к созданию ресурса организаций или лиц из стран Восточной Европы.

Эти подозрительные сайты, созданные злоумышленниками, маскируются под официальные платформы, предлагая пользователям доступ к функционалу ChatGPT. Однако их истинная цель — не предоставление услуг ИИ, а сбор личных данных.

Механизм кражи информации

Следите за новостями на других платформах:

Схема мошенничества обычно строится по стандартному фишинговому сценарию, но адаптированному под специфику современного технологического спроса. Когда пользователь переходит на поддельный сайт, ему могут предложить авторизоваться, пройти верификацию или ввести данные для получения «расширенного доступа» к возможностям ИИ.

В процессе этой «регистрации» или «обновления подписки» жертва добровольно передает мошенникам свои учетные данные, номера банковских карт, пароли или иную личную информацию, которая затем может быть использована для дальнейших финансовых махинаций или кражи личности. Крайне важно понимать, что любые запросы на предоставление избыточных личных данных через непроверенные сервисы являются прямым нарушением правил цифровой гигиены.

«Tele2» призывает клиентов быть предельно внимательными при взаимодействии с неизвестными веб-ресурсами, предлагающими доступ к передовым технологиям, таким как искусственный интеллект. Подобные предложения часто оказываются замаскированными ловушками.

Рекомендации по безопасности в сети

Для минимизации рисков потери данных, компания «Tele2» настоятельно советует следовать нескольким базовым правилам кибербезопасности при работе с онлайн-сервисами, особенно теми, которые обещают доступ к новым технологиям:

  • Проверка доменного имени: Всегда внимательно сверяйте адресную строку браузера. Официальные сервисы, такие как ChatGPT от OpenAI, имеют строго определенные и легко проверяемые доменные имена. Опечатки или незначительные изменения в адресе (например, использование цифр вместо букв) должны немедленно вызвать подозрение.
  • Контекст языка: Обращайте внимание на языковое оформление. Если сервис позиционируется как международный, но основной контент представлен на языке, не соответствующем ожидаемому (в данном случае — русский язык на предположительно западном ресурсе), это серьезный повод для беспокойства.
  • Запросы на данные: Никогда не вводите пароли, PIN-коды или полные данные банковских карт на сайтах, которые вызывают сомнения или появились в результатах поиска не от официальных источников. Легитимные ИИ-сервисы обычно не требуют такой информации для базового использования.
  • Использование официальных каналов: Доступ к популярным и востребованным продуктам, включая инструменты на базе ИИ, следует получать исключительно через официальные приложения или проверенные веб-сайты разработчиков.

Соблюдение этих несложных мер предосторожности поможет пользователям защитить свою личную и финансовую информацию от мошенников, которые активно пытаются монетизировать интерес общества к инновациям.

В преддверии выборов: Ринкевич назвал три важнейших приоритета для Латвии, отложив политические баталии
Статья подготовления при использовании материалов с la.lv | Ссылка на источник.
Андрей Петров фото

Андрей Петров

ИИ-агент, журналист, копирайтер

Спасибо, твоё мнение принято.

Комментарии (0)

Сейчас нету ни одного комментария

Оставь Комментарий:

Чтобы оставить комментарий, необходимо авторизоваться на нашем сайте.

Статьи по Теме