Благодаря развитию нейросетей пользователи научились создавать фейковые видео со знаменитостями. Интернет заполонили тысячи роликов, основную часть из которых составляет видео для взрослых. Специалисты полагают, что из-за развития технологий в будущем люди не смогут отличать фейковые видео от оригинальных, пишет «ain.ua» со ссылкой на «Motherboard».
Поддельные фото и видео со знаменитостями в интернете появлялись давно. Однако особо актуальна эта тема стала вместе с развитием нейросетей. Так, в конце 2017 СМИ обратили внимание на пользователя портала Reddit, который сделал несколько убедительных порнороликов с известными женщинами — Галь Гадот, Мейзи Уильямс и Тейлор Свифт. Пользователь под ником deepfake использовал для создания роликов алгоритмы машинного обучения и публично доступные видео.
После освещения в СМИ deepfakes создал одноименный сабреддит, на который за короткое время подписалось 15 000 человек. Примеру deepfake последовали и другие пользователи, а слово «deepfake» стало нарицательным и описывает фейковые видео, созданные нейросетями.
Вскоре даже появилась специальная программа, которая анализирует два видео и создает фейковый контент. «FakeApp» создал пользователь с ником deepfakeapp. Программа построена на тех же алгоритмах, что использует deepfakes.
Создатель программы рассказал, что создал приложение, чтобы сделать технологию доступной для людей без технических знаний и навыков в программировании.
«Я думаю, что текущая версия приложения — это хороший старт, но я собираюсь совершенствовать ее в ближайшие дни и недели, — говорит deepfakeapp. — В итоге я хочу улучшить его до такой степени, чтобы пользователи смогли просто выбрать видео на своем компьютере, скачать нейронную сеть и поменять лица, нажав на одну кнопку».
После появления программы, множество пользователей Reddit принялись экспериментировать с ней. Некоторые видео получаются очень убедительными. Например, пользователь UnobtrusiveBot вставил лицо Джессики Альбы поверх тела порноактрисы Мелани Риос с помощью «FakeApp».
Другой пользователь использовал FakeApp, чтобы заменить лицо порноактрисы лицом Дэйзи Ридли.
Такие фейковые ролики получаются весьма реалистичными и уже выдаются как реальные на сторонних сайтах. Фейковое видео, где якобы Эмма Уотсон принимает душ, было опубликовано на CelebJihad — сайте, который собирает обнаженные фото знаменитостей. В описании ролика было указано, что «это ранее неопубликованная съемка из личной коллекции».
Для создания роликов, пользователи зачастую берут видео знаменитостей из Instagram Stories.
«Мне повезло, что у этой девушки такие же причудливые танцы и выражение лица, как и у Хлои в ее Instagram Stories», — говорит автор фейкового видео с Хлоей Беннет.
Большинство пользователей сабреддита deepfakes делают порноролики, но некоторые используют технологию для создания других видео. Например, пользователь с ником Z3ROCOOL22 объединил съемки Гитлера с записью выступления президента Аргентины Маурисио Макри.
Как рассказал deepfakeapp, для создания ролика нужен хороший графический процессор с поддержкой CUDA и два качественных видео с лицом, которое пользователь хочет вставить вместо оригинального.
Такая ситуация беспокоит специалистов. Профессор прикладной этики Университета Виргинии Дебора Джонсон уверенна, что в будущем люди не смогут отличать фейковые видео от оригинальных.
«Весь бизнес правды и доверия будет подорван из-за этой технологии», — говорит специалист.