Учёные предупреждают: дипфейки стали настолько реальны, что обманывают даже «героев» подделок

Возросшее качество нейросетевых подделок видео, или дипфейков, требует срочного создания новых систем проверки подлинности для видеоконференций, особенно в финансовой сфере. Такое заявление сделал директор Института системного программирования им. В.П. Иванникова РАН Арутюн Аветисян, лично столкнувшись с мошенническими действиями от своего имени.

«Сегодня опять кто-то пытался звонить сотрудникам, выдавая себя за меня. Реалистичность таких дипфейков достигла уровня, когда даже человек, чьё изображение используется, может поверить в их подлинность», — отметил учёный, выступая на конференции «Цифровые международные отношения 2025».

Аветисян привёл нашумевший случай в Гонконге, где банкира обманули, организовав фальшивую видеоконференцию с «коллегами из лондонского офиса». После реалистичного общения финансист подписал платёж, и 25 миллионов долларов ушли мошенникам. «Это происходит сплошь и рядом. Мы живём в мире, где уже не можем доверять своим чувствам», — констатировал академик.

В качестве решения он предложил ввести особые регламенты для крупных сделок. «Должен быть специальный человек, который в критических ситуациях, когда речь идёт о десятках миллионов, подтверждает: это действительно та самая видеоконференция, а не подделка», — пояснил Аветисян.

Параллельно, по его мнению, необходимо разрабатывать доступные инструменты, которые помогут обычным пользователям отличать в интернете настоящее видео от сгенерированного искусственным интеллектом. Это станет ключевым шагом для защиты общества в новой цифровой реальности, где визуальная достоверность больше не является гарантией правды.

Предыдущая статьяВерховный суд РФ обобщит практику по сделкам с недвижимостью на основе дела Лурье и Долиной
Следующая статьяТуристический поток в Крым вырос на 20% в 2025 году