Нейросеть научили распознавать качественно отфотошопленные фотографии

МЕНЮ


Искусственный интеллект. Новости
Поиск
Регистрация на сайте
Сбор средств на аренду сервера для ai-news

ТЕМЫ


Новости ИИРазработка ИИРабота разума и сознаниеВнедрение ИИРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

Авторизация



RSS


RSS новости

Новостная лента форума ailab.ru

Peng Zhou et al., / CVPR 2018

Американские исследователи научили нейросеть распознавать фотографии, модифицированные в графических редакторах. В частности, нейросеть умеет распознавать качественно выполненное удаление объектов и клонирование, а также совмещение изображений с разных снимков. Доклад был представлен на конференции CVPR, сообщает The Verge.

С развитием социальных сетей СМИ все чаще стали использовать фотографии и видеоматериалы, снятые рядовыми пользователями, а иногда даже просто «картинки из интернета» неизвестного авторства. При этом такие изображения вполне могут оказаться отредактированными, что не слишком существенно, например, для смешных картинок или при устранении косметических дефектов на портретах, но может оказаться критичным для средств массовой информации — качественно выполненные фейки могут ввести в заблуждение даже специалистов.

Разработчики из Adobe и Мэрилендского университета в Колледж-Парке предложили бороться с фейками с помощью нейросети, которая будет определять три популярных операции, используемые при существенном изменении содержимого на фотографии: удаление объектов, клонирование участков изображения, а также совмещение изображений с разных снимков. Для этого разработчики выбрали быструю региональную сверточную нейросеть (Faster R-CNN).

Основанная на ней программа RGB-N проверяет подлинность изображения одновременно по двум каналам. Анализ RGB-канала позволяет выявить видимые артефакты редактирования, нехарактерный контрасты и другие визуально заметные признаки ретуши, а второй канал позволяет выявить неравномерности в распределении шума в изображении — таким образом алгоритм может разглядеть даже идеально сделанный с точки зрения человека фейк.

Peng Zhou et al., / CVPR 2018

Для тренировки RGB-N разработчики использовали свой синтетический датасет, основанный на датасете COCO (он состоит из 328 тысяч изображений, на которых размечено 2,5 миллиона легко распознаваемых даже детьми типов объектов, таких как «машина», «холодильник» и тому подобное). Благодаря аннотациям в COCO разработчики автоматически сгенерировали свой датасет, в котором разные объекты добавлялись на фотографии, а также производилось клонирование или удаление участков картинки. В итоге авторы получили 42 тысячи пар фотографий фейк–оригинал, которые и использовали для тренировки алгоритма как для распознавания видимых в RGB-канале изменений, так и для выявления нарушения в распределении шума. 

Peng Zhou et al., / CVPR 2018

Дальнейшее тестирование на четырех других датасетах с отредактированными изображением показало, что разработанная в Adobe программа превосходит другие подобные алгоритмы и точность распознавания составляет 80–90 процентов:

Сравнение эффективности разных алгоритмов распознавания ретуши на четырех разных датасетах

Peng Zhou et al., / CVPR 2018

Стоит отметить, нейросети умеют не только различать качественные фейки, но и создавать их — например, в NVIDIA научили компьютер превращать зиму в лето на видеозаписи. Подробнее о том, как нейросети уже сегодня могут обмануть людей или вообще использоваться во вред, можно прочитать в нашем материале «Пластмассовый мир победил».

Николай Воронцов


Источник: nplus1.ru



Поддержи проект ai-news рублем. Машины верят в тебя! >>



Комментарии: