Учёные создали нейросеть, которая обманывает нейросети, распознающие обман нейросетей

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Война роботов оказалась не такой, какой мы её ожидали

Учёные разработали новую нейросеть, которая пытается бороться с классификаторами фейков. С помощью неё, авторы фейка могут вставить в картинку специфический шум, который заставляет другие классификаторы думать, что изображение не претерпевало никаких модификаций.

Так называемые дипфейки, то есть видео, в которых людям заменяют лицо или мимику, уже давно известны обществу. СМИ и представители различных государств неоднократно выражали озабоченность по поводу того, что сегодня методы модификации видео стали слишком доступны широкой публике.

Однако, помимо самих дипфейков, учёными давно разработаны другие нейросети, специально натренированные распознавать дипфейки, в том числе зоны видео, в которых они присутствуют.

Теперь же учёные научились обманывать нейросети, распознающие обман. Нейросеть-обманщик может потенциально приспособится к любым, в том числе ещё неизвестным, классификаторам дипфейков. При этом, нейросети-обманщику получается обмануть классификаторы в 99% случаев при условии, что видео-результат не будут сжимать. В случае сжатия процент успешности падает до 60-90%.

Метод основан на уже давно известных исследованиях, в которых нейросети научили добавлять к изображению шум, чтобы нейросети-классификаторы изображений не могли распознать, что на них изображено.

Принцип работы: к изображению слева добавляют специфический шум в середине, получая изображение справа. Теперь классификатор уверен, что на изображениях справа изображены страусы


Источник: dtf.ru

Комментарии: