Как работает программа замены лиц

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Приложение Face Swap — это веселое развлечение: всего один клик — и ваше собственное лицо уже красуется вместо лица друга, кинозвезды или персонажа. Даже Facebook, Yahoo! и Microsoft предлагают собственные программы для замены лица в один клик. Но новое ПО Deepfakes еще больше усугубляет и без того напряженную ситуацию с достоверностью и правовым статусом личности в Интернете.

В начале января пользователь Reddit/u/deepfakes выпустил программное обеспечение, с помощью которого даже непрофессионал может заменить лицо в видео. Результат кажется обманчиво реальным: новое лицо сливается с головой оригинала и образует достаточно правдоподобный гибрид. Фейк перенимает даже мимику оригинала.

Пересадка лица с препятствиями

На основании двух исходных видео FakeApp рассчитывает оптимальное размытие для двух лиц. Процесс длится часами

Все, что требуется, — это два видео: одно с «донором» лица, а другое с «реципиентом»; в обоих видео соответствующие лица должны быть четко видны. Замена лиц сопровождается некоторыми техническими сложностями. Программа работает только на компьютерах на базе операционной системы Windows и с видеокартой NVIDIA (наиболее поздней и мощной модели), а воспользоваться ПО и попробовать себя в пересадке лица может тот, у кого есть достаточно терпения, чтобы следовать пространным инструкциям на YouTube, имеется несколько часов времени и умение справляться с разочарованием.

И, конечно же, чаще всего такие эксперименты начинаются с порно. После того как лица известных голливудских актрис были пересажены с помощью FakeApp на головы звезд эротического жанра, это развлечение для «ботаников» стало очень популярным. Но что же станет с реальностью, если ее так легко подделать?

И тут есть о чем задуматься: уже несколько лет научно-исследовательские группы работают над программным обеспечением, которое позволит свободно изменять не только изображения и видео, но также голосовые и звуковые записи. В конце ноября компания Adobe представила свою программу Voco, с помощью которой можно переписывать, сокращать, копировать и даже дополнять новым текстом речь — и все это с сохранением оригинального голоса. Так что есть основания опасаться, что в сочетании с приложениями перестановки лиц могут быть созданы такие видео, где реальными людьми будут манипулировать словно говорящими куклами.

Фейковые новости и «альтернативные» факты подтверждают, что эти опасения стоит рассматривать как тревожный сигнал о том, что уже давно начался процесс потери достоверности информации. И можно верить прогнозу Google о том, что такое понятие, как Deepfake (образованное от Deep learning — машинное обучение с применением нейросетей и fake — подделка), находится в процессе стремительного развития.

Правдивая история о лжи

В 2016 году научно-исследовательская группа из Германии продемонстрировала, как в реальном времени можно перенести мимику одного человека на лицо другого

Здесь стоит упомянуть три вещи: во-первых, хотя видео, созданные с помощью приложения FakeApp, впечатляют, до полной убедительности им пока далеко. Видео могут обмануть зрителя, только если просматривать их в формате нечеткой GIF-анимации или в низком разрешении на YouTube. К тому же на исходном видео должно быть хорошее освещение, и должны быть видны только отдельные лица с ограниченной мимикой и, прежде всего, без резких движений. Такой фейк можно рассматривать скорее как трюк, который исполняется только в определенных условиях.

То, что замена была настолько успешно испытана именно в случае с порновидео, объясняется не только тягой к вуайеризму, но и эстетическими особенностями производства порнофильмов: ярко освещенные лица актрис с кукольным гримом хорошо подходят для таких экспериментов.

Во-вторых, создать подобное видео не так просто. Если искать видео на deepfake-форумах (уже удаленных), в основном можно найти лишь неудачные попытки подделок и массу вопросов с просьбами о помощи: почему мой фейк так плох? Для создания фейка длительностью в несколько секунд необходимо потратить много часов на освоение алгоритма.

Отдельные кадры в тренировочном материале могут повлиять на весь результат. И независимо от того, насколько хороши условия, в конечном счете у зрителя всегда остается ощущение «здесь что-то не так» — типичный признак симуляции реальности, которая хоть и хороша, но недостаточно.

 

Третье и, пожалуй, самое главное: манипуляции с изображениями, в том числе и движущимися изображениями, и даже сделанные непрофессионалами, не являются чем-то новым. Фальсификации и инсценировки существовали с самого начала развития фотографии. Одна из первых известных манипуляций с изображениями как раз заключалась в схожей пересадке головы Авраама Линкольна на тело Джона К. Кэлхона – монтаж, с помощью которого Линкольн должен был выглядеть красивее, чем был на самом деле. Изображения не отражают реальность, а только дают представления о ней.

«Что всегда проявляется на изображении, — пишет культуролог Гельмут Летен в своем удостоенном наград эссе «Тень фотографа», — вызывает скепсис относительно того, не является ли то, что мы видим, лишь подделкой, инсценировкой или, по меньшей мере, модифицированной формой действительности».

Ложь, кажущаяся правдой, или правда, кажущаяся ложью, — это даже не побочный аспект фотографии, но одна из ее постоянных величин: в фотографии и кино всегда ведется игра с визуализацией и притворством — здесь реализм постоянно будет являться ложью. И именно это делает подобное искусство настолько захватывающим.

Когда картинки научились лгать

 

Это неприятное чувство только усиливается с развитием цифровой фотографии. То, что воспроизводится в файле изображения, является в высшей степени искусственным продуктом: артефакт алгоритмической интерпретации реальности, следствие технически сложного отбора с учетом психологии восприятия, когда устройство должно интерпретировать и выводить потоки данных. Парадоксальным образом в эпоху массового производства изображений растет и ожидание того, что на фотографиях и в кино отражается все более реалистичная действительность: если создание изображений стало повсеместным, не будет ли и мир отражен все точнее и правдивее?

С Deepfakes и такими приложениями, как Voco, возникает вопрос: каким изображениям еще можно доверять, а каким нет? Но эта ситуация не является исключительной, ведь конфликт возникает снова и снова, когда появляются новые формы для отражения себя и окружающего мира. И тогда, как и в случае с другими техническими инновациями, возникают социальные вопросы, связанные с новыми возможностями.

Поскольку машинная обработка изображения оставляет следы, будут появляться новые технологии, которые помогут различить действительное и фальшивое. Намного сильнее, чем когда-либо, получат развитие новые методы восприятия, как и в случае с новыми технологиями записи и редактирования изображения и звука.

И даже несмотря на нынешние горячие дискуссии о потенциальных возможностях фальсификации появляется достаточно возможностей для творческого самовыражения. К этому относится и FakeApp, ведь это просто фантастическая игрушка. И следствием ее появления станет не потеря реальности, а ее укрепление.


Источник: m.vk.com

Комментарии: