Дипфейки родных становятся новым оружием мошенников
Мария Колмакова
Нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека.

Мошенники стали активно использовать технологии искусственного интеллекта для создания правдоподобных видео с «родственниками», которые просят занять им денег. Об этом сообщили в УБК ГУ МВД России по Петербургу и Ленобласти.
По данным ведомства, нейросети позволяют с одной фотографии воспроизвести мимику, голос и движения конкретного человека. Полученное видео мошенники рассылают его близким и друзьям, рассчитывая на доверие и быстрый перевод средств.
В МВД предупредили, что при получении подобного видео нужно обязательно перепроверить информацию — напрямую созвониться с человеком и уточнить, действительно ли он обращался за помощью.
Ранее 78.ru писал, что мошенники обещают подросткам деньги якобы просто за прослушивание музыки.




