Учёные создали нейросеть, которая обманывает нейросети, распознающие обман нейросетей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-04-16 07:48 Война роботов оказалась не такой, какой мы её ожидали Учёные разработали новую нейросеть, которая пытается бороться с классификаторами фейков. С помощью неё, авторы фейка могут вставить в картинку специфический шум, который заставляет другие классификаторы думать, что изображение не претерпевало никаких модификаций. Так называемые дипфейки, то есть видео, в которых людям заменяют лицо или мимику, уже давно известны обществу. СМИ и представители различных государств неоднократно выражали озабоченность по поводу того, что сегодня методы модификации видео стали слишком доступны широкой публике. Однако, помимо самих дипфейков, учёными давно разработаны другие нейросети, специально натренированные распознавать дипфейки, в том числе зоны видео, в которых они присутствуют. Теперь же учёные научились обманывать нейросети, распознающие обман. Нейросеть-обманщик может потенциально приспособится к любым, в том числе ещё неизвестным, классификаторам дипфейков. При этом, нейросети-обманщику получается обмануть классификаторы в 99% случаев при условии, что видео-результат не будут сжимать. В случае сжатия процент успешности падает до 60-90%. Метод основан на уже давно известных исследованиях, в которых нейросети научили добавлять к изображению шум, чтобы нейросети-классификаторы изображений не могли распознать, что на них изображено. Принцип работы: к изображению слева добавляют специфический шум в середине, получая изображение справа. Теперь классификатор уверен, что на изображениях справа изображены страусы Телеграм: t.me/ainewsline Источник: dtf.ru Комментарии: |
|