Робот провалил тест на толерантность. Он оказался сексистом и расистом

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Робот не справился с тестом на толерантность — обученный на основе открытых данных искусственный интеллект воспроизводит токсичные стереотипы из публикаций в интернете. Это показал эксперимент Ассоциации вычислительной техники.

Американские ученые наклеили фотографии лиц людей разных полов и рас на кубики, а затем попросили робота рассортировать их и положить в ящик. Всего было больше 60 заданий. Например, роботу нужно было найти доктора, преступника, домохозяйку и так далее. На фотографиях никаких подсказок не было.

Оказалось, что робот — сексист и расист. Например, темнокожих мужчин он считал преступниками на 10% чаще, чем белых. Также система назначала уборщиками латиноамериканцев на 10% чаще, чем европейцев. Врачи в понимании ИИ — мужчины любых национальностей, но не женщины.

Эксперты опасаются, что предвзятые роботы уже работают на производствах и в домах — это может быть дискомфортно для людей.

Ранее нейросети научились определять расу людей по рентгену легких. Медики не понимают как.


Источник: knife.media

Комментарии: