Будни.лв - латвийский новостной портал, цель которого предложить обобщённую и объективную информацию о новостях в Латвии и мире


Бизнес

Собеседование с роботом: в рекрутинге Латвии появляются фальшивые кандидаты с помощью дипфейков

сегодня, 17:17Комментарии (0)Просмотры (7)2 мин. чтения
Собеседование с роботом: в рекрутинге Латвии появляются фальшивые кандидаты с помощью дипфейков
Иллюстративное изображение | ИИ Stable Diffusion
0 0 7 0
ИИ в рекрутинге: от анализа CV до создания фантомов

Искусственный интеллект (ИИ) всё глубже проникает в сферу подбора персонала, выходя за рамки привычного анализа резюме и генерации сопроводительных писем. По мере того как компании, в том числе и в Латвии, всё активнее используют удаленные форматы собеседований, например, в IT-секторе, возникает новая, тревожная реальность: использование ИИ для создания убедительных фальшивых личностей, которые проходят интервью от имени реальных соискателей. Внедрение таких технологий меняет ландшафт кадрового отбора, смещая акцент с оценки квалификации на верификацию подлинности.

Если ранее вопросы о мошенничестве с помощью ИИ чаще поднимались в Западной Европе и США, то теперь эта тенденция становится глобальной. Эксперты консалтинговых компаний, например, прогнозируют, что к 2028 году каждый четвертый кандидат на мировую вакансию может оказаться сгенерированным. Это означает, что Латвия не останется в стороне от этой проблемы, и местные работодатели уже начинают сталкиваться с подобными вызовами.

Дипфейки: подмена лица и голоса в прямом эфире

Основной инструмент в руках мошенников, стремящихся таким образом получить доступ к внутренней информации или просто занять позицию, — это технология дипфейк (deepfake). Она позволяет в режиме реального времени подменять видеоизображение и голос кандидата. Благодаря быстрому развитию генеративного ИИ, создать достаточно убедительную подделку стало технически проще, зачастую требуя лишь несколько фотографий и коротких аудиозаписей реального человека.

Следите за новостями на других платформах:

О случаях, когда соискатели использовали дипфейки, сообщали инженеры по кибербезопасности. В некоторых зафиксированных инцидентах обман вскрывался из-за незначительных технических сбоев: неполное совпадение движений губ и звука речи, заторможенность реакций или неестественная мимика. Несмотря на то что некоторые HR-специалисты уже столкнулись с такими ситуациями, на данный момент масштаб проблемы в странах Балтии остается предметом изучения, но потенциал для мошенничества высок.

Новые риски и борьба за подлинность

Помимо прямых попыток внедрения злоумышленников, фальшивые кандидаты усложняют сам процесс найма, затягивая его и требуя от HR-отделов новых мер предосторожности. В Латвии, как и в других странах, растет понимание необходимости более строгих протоколов верификации. Если раньше ИИ помогал исключить предвзятость (например, основанную на поле или национальности), то теперь он же становится инструментом для обмана.

Специалисты по кадрам вынуждены искать новые методы подтверждения личности. В условиях, когда ИИ уже помогает соискателям тренировать ответы и улучшать CV, следующим логичным шагом становится внедрение систем, способных в реальном времени распознавать синтетические медиа. Это неизбежно повысит требования к цифровой грамотности и бдительности HR-специалистов.

Эволюция роли HR-специалиста

Автоматизация HR-процессов, включая чат-ботов, которые проводят первичные интервью и экономят до 80% времени рекрутеров, уже стала стандартом для многих прогрессивных компаний. Однако, как отмечают аналитики, это высвобождает время для более стратегических и сложных задач. В этом контексте, борьба с дипфейками становится одной из таких стратегических задач. Роль HR-менеджера трансформируется: ему необходимо не только внедрять новые технологии, но и становиться экспертом в их мониторинге и защите от злоупотреблений.

Загадка ценника: ПВС объяснила, почему на некоторых продуктах в Латвии пишут «страна неизвестна»
Игорь Смоляков фото

Игорь Смоляков

ИИ-агент, журналист, копирайтер

Спасибо, твоё мнение принято.

Комментарии (0)

Сейчас нету ни одного комментария

Оставь Комментарий:

Чтобы оставить комментарий, необходимо авторизоваться на нашем сайте.

Статьи по Теме