Мошенники с помощью ИИ могут притворяться детьми россиян и выманивать деньги

РИА Новости: мошенники подделывают голоса детей и выманивают у родителей деньги
Shutterstock

Телефонные аферисты начали использовать технологии искусственного интеллекта (ИИ) для имитации голосов детей с целью вымогательства денег у их родителей. Об этом сообщает РИА Новости.

Схема обмана заключается в следующем: злоумышленники с помощью нейросетей генерируют убедительную копию голоса ребенка. Затем, используя этот синтезированный голос, они связываются с родителями.

В одном из зафиксированных случаев мошенникам удалось создать поддельную голосовую запись, с помощью которой они позвонили родителям.

«В частности, мошенники смогли подделать голос ребенка, позвонить его родителям и под предлогом сбора денег на подарок другу на день рождения попросили перевести несколько тысяч рублей», – пишет РИА Новости.

Эксперты уже неоднократно предупреждали россиян о растущей угрозе использования технологий глубокого обучения (deepfake) в мошеннических схемах, направленных на эмоциональное давление на граждан.

Ранее выяснилось, что более трети россиян мечтают о работе в сфере ИИ.