Мошенники используют искуственный интеллект (ИИ) для имитации голоса родственников или доверенных лиц своих жертв. Об этом заявила официальный представитель МВД РФ Ирина Волк, слова которой передает ТАСС.
«В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц», — подчеркнула Волк.
Офицер полиции рассказала, что как правило генеративные модели используются для имитации голоса родственников, но это могут быть также ложные сотрудники банков, представители государственных органов или публичные деятели. Волк при этом пояснила, что аферисты, используя синтезированные голоса или видеозаписи, могут провоцировать пользователей на переводы денег или раскрытие персональных данных.
До этого представитель полиции рассказала, как отличить сгенерированные ИИ документы от подлинных. По ее информации, созданные с использованием нейросетей фотографии и различные документы часто содержат противоречивые сведения, в них также отсутствуют мелкие детали и искажен фон.
Ранее россиян предупредили о мошенниках, предлагающих «продлить договор с оператором».