Исследователи из лаборатории машинного обучения OpenAI обнаружили, что даже самые продвинутые системы компьютерного зрения можно без труда обмануть, имея под рукой лишь ручку и блокнот.

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи из лаборатории машинного обучения OpenAI обнаружили, что даже самые продвинутые системы компьютерного зрения можно без труда обмануть, имея под рукой лишь ручку и блокнот.

Как оказалось, достаточно просто написать на листке бумаги название объекта и приклеить его на другой, чтобы заставить искусственный интеллект неправильно определить то, что он видит. Возможные атаки на систему компьютерного зрения специалисты назвали «типографскими».

Тем не менее, паниковать рано — уязвимость затрагивает экспериментальную систему под названием CLIP, которая сейчас не используется в коммерческих целях. С помощью нее изучают то, как искусственный интеллект самостоятельно учится идентифицировать объекты на сопоставлении огромных баз данных текстовых и графических пар.

Также в OpenAI обнаружили, что CLIP сам обучился предвзятым стереотипам, например, он начал ассоциировать Ближний Восток с терроризмом, а нейроны, отвечающие за распознавание темнокожих людей, задействуются и для изображений с гориллами.

Комментарии: