Эксперты «Лаборатории Касперского» зафиксировали появление технологий, позволяющих мошенникам создавать подробные цифровые копии реальных людей, так называемые дипфейки. Впрочем, на данный момент полное и абсолютно точное воспроизведение всех особенностей конкретной личности все еще остается сложной задачей для злоумышленников. Об этом сообщает ТАСС.
По информации, озвученной директором центра исследований и анализа угроз Kaspersky GReAT Игорем Кузнецовым, современные нейросети уже способны генерировать видеоматериалы, которые выглядят достаточно правдоподобно. Тем не менее, создание двойника, который бы в точности копировал индивидуальные манеры речи, движения и внешние черты определенного человека, все еще требует значительных технических ресурсов и высокой квалификации.
Специалист отметил, что на текущий момент в реальных мошеннических схемах пока не наблюдается дипфейков, достигающих уровня качества, который характерен для крупных коммерческих студий. При этом возможность создания таких высокоточных подделок существует, но ее реализация зависит от доступного инструментария и уровня подготовки киберпреступников.
В «Лаборатории Касперского» уже более года ведется наблюдение за так называемым «теневым ИИ» (Dark AI) — это специализированные языковые модели, разрабатываемые киберпреступным сообществом для своих нужд. На этом сегменте рынка пока не выявлено специалистов, способных производить контент уровня, сопоставимого с разработками крупных коммерческих организаций.
Ранее Наталья Касперская предупредила россиян о вредоносных ссылках в Telegram.