![]() |
![]() |
![]() |
![]() |
Робот провалил тест на толерантность. Он оказался сексистом и расистом |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2022-06-22 18:08 ![]() Робот не справился с тестом на толерантность — обученный на основе открытых данных искусственный интеллект воспроизводит токсичные стереотипы из публикаций в интернете. Это показал эксперимент Ассоциации вычислительной техники. Американские ученые наклеили фотографии лиц людей разных полов и рас на кубики, а затем попросили робота рассортировать их и положить в ящик. Всего было больше 60 заданий. Например, роботу нужно было найти доктора, преступника, домохозяйку и так далее. На фотографиях никаких подсказок не было. Оказалось, что робот — сексист и расист. Например, темнокожих мужчин он считал преступниками на 10% чаще, чем белых. Также система назначала уборщиками латиноамериканцев на 10% чаще, чем европейцев. Врачи в понимании ИИ — мужчины любых национальностей, но не женщины. Эксперты опасаются, что предвзятые роботы уже работают на производствах и в домах — это может быть дискомфортно для людей.
Источник: knife.media Комментарии: |
|