Технология deep-fake в последнее время достигла устрашающих результатов: она позволяет синтезировать реалистичные видео с реальными персонажами. Об этом заявил в четверг, 14 февраля, координатор Центра безопасного Интернета Урван Парфентьев, выступая на Cyber Security Forum 2019 в «России сегодня».
«Технология deep-fake используется для синтезирования искусственным интеллектом человеческих изображений, в основе этого лежит принцип машинного обучения и нейросетей. В результате роботы создают реалистичные видео с настоящими людьми, при этом данные ролики – не аниме. Если раньше для создания фейковых видео нужен был дублер-двойник и две тонны грима, сегодня достаточно загрузить данные в нейросеть, которая сама создаст реалистичный ролик», – рассказал эксперт.
По его словам, раньше люди на 100% доверяли видеозаписям, так как считалось, что их (в отличие от аудио и фото) подделать нельзя.
«Однако сейчас все изменилось: новые технологии научились из реальных видео синтезировать фейки. Анализируя мимику и движения реального персонажа, нейросети затем могут самостоятельно создавать ролики с его участием, таким образом демонстрируя действия, которые настоящий человек не совершал», – добавил Урван Парфентьев.
Он обратил внимание, что для создания фейковых роликов нейросеть должна пройти обучение на 300-2000 реальных фотографиях, показывающих героя в разных ракурсах.
«Для создания видео также нужна модель, которая будет делать движения: потом эти движения накладываются на внешность второй персоны, и получается, что второй человек производит точно такие же действия, хотя в реальности он их не делал», – сказал эксперт.
Координатор Центра безопасного Интернета заключил:
«Раньше эта технология была очень дорогой: для создания вымышленного персонажа из фильма “Звездные войны” – принцессы Леи – требовалось $200 млн. Сейчас все гораздо дешевле: нужны только люди, немного разбирающиеся в программировании. Новую технологию можно будет использовать с целью дискредитации политических противников, провокации беспорядков, пропаганды терроризма. В будущем понадобятся законодательные изменения для регулирования использования deep-fake».