Как студенты МIT обманули ИИ Google

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Мы все больше полагаемся на способности ИИ, которые он демонстрирует в распознавании от экзотических состояний материи до конкретного лица. Но насколько все-таки трудно обмануть эти программные алгоритмы? Именно это и захотели выяснить студенты Массачусетского технологического института (MIT).

Группа студентов решила узнать, насколько надежно и последовательно нейронная сеть идентифицирует объект. Они использовали так называемый «состязательный образ», который представляет собой рисунок для обмана интеллектуальных компьютерных программ. Он использует специфические узоры, чтобы обмануть ИИ. Речь идет не о похожих друг на друга изображениях, а про шаблон, который может накладываться на изображение. Он может быть добавлен как почти невидимый слой поверх существующего изображения. Но эти «состязательные образы» не всегда работают правильно. Масштабирование, кадрирование, ракурс и другие преобразования часто могут повредить или ослабить эффективность накладываемого изображения.

Команде MIT удалось создать алгоритм, который надежно обманывал ИИ, используя «состязательные образы», как двухмерные, так и трехмерные. Эти изображения будут обманывать ИИ, независимо от угла расположения объекта. Команда обманула ИИ компании Google Inception v3, который распознал напечатанную на 3D-принтере черепаху как пистолет.

Это исследование имеет большое значение еще и потому, что описанная проблема существует не только для Google, но и для всех нейронных сетей. Выяснив, как люди могут обмануть эти системы, исследователи смогут разработать новые способы, чтобы сделать системы распознавания ИИ более точными.

 


Источник: www.robogeek.ru

Комментарии: