Нейросеть научили обманывать людей

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Специалисты Google Brain, исследовательского проекта Google по работе с искусственным интеллектом, представили алгоритм, который может изменять изображения так, чтобы они могли обмануть человека. До этого запутать удавалось нейросеть, заставить ошибиться человека сложнее. Подробности работы алгоритма можно найти на портале препринтов arXiv.org.

Ученые уже умеют изменять изображения так, чтобы нейросеть видела, например, гиббона на фотографии панды. Такие изменения могут быть почти незаметны для человека, и он по-прежнему будет видеть панду. Подобные искажения создаются под конкретный тип нейросети, и не работают «на людях».

8e674e6e096925251d6c20fcfbca1cba6aee61ff

Изображение слева нейросеть воспринимает как панду, а если наложить на него шум (изображение в центре), то на получившейся картинке (справа) нейросеть распознает гиббона

OpenAI

В новой работе исследователи описали алгоритм, способный запутать и человека. Для этого программа добавляет к изображению слой, учитывающий принцип работы глаза человека. Такие изображения обманули десять нейросетей, классифицирующих объекты. После этого их показали лядм. Участники эксперимента видели картинку в течение 60-70 мс, после чего должны были выбрать одну из групп, к которой может относиться изображенный предмет.

Чтобы проверить эффективность своей разработки, инженеры показывали испытуемым изображения без слоя, с ним и с отраженным по горизонтали слоем. Изображение с правильно расположенным слоем обманывало людей в среднем на 7-9% чаще, чем исходное изображение, с перевернутым — иногда немного повышало, а иногда снижало точность ответов испытуемых.


Источник: indicator.ru

Комментарии: