Прямой эфир

Дипфейки родных становятся новым оружием мошенников

Мария Колмакова
31 августа, 10:52
Нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека.
Фото: unsplash

Мошенники стали активно использовать технологии искусственного интеллекта для создания правдоподобных видео с «родственниками», которые просят занять им денег. Об этом сообщили в УБК ГУ МВД России по Петербургу и Ленобласти.

По данным ведомства, нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео мошенники рассылают его близким и друзьям, рассчитывая на доверие и быстрый перевод средств.

В МВД предупредили, что при получении подобного видео нужно обязательно перепроверить информацию — напрямую созвониться с человеком и уточнить, действительно ли он обращался за помощью.

Ранее 78.ru писал, что мошенники обещают подросткам деньги якобы просто за прослушивание музыки.