Искусственный интеллект Amazon обвинили в предвзятости к расе человека |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-01-28 00:42 Разработкой системы распознавания лиц занимается практически каждая технологическая компания. Одной из них является Amazon — ее технология называется Rekognition и, по мнению специалистов из Массачусетского технологического института, она сильно уступает своим аналогам. Дело в том, что в ходе оценки ее точности выяснилось, что система часто не может различить пол чернокожих людей. Это уже вторая жалоба на оскорбительную работу распознавания лиц Amazon. Ученые проверяли работу искусственного интеллекта Rekognition на протяжении всего 2018 года. Количество ошибок при определении пола чернокожих людей достигало 31% и это, по мнению исследователей, ужасный результат. Для сравнения, распознавание лиц Microsoft допускает подобные ошибки только в 1,5% случаев. Компания Amazon считает, что претензии исследователей лишены оснований. Она уверила, что во внутренних тестах обновленной версии Rekognition не было замечено ни одной шибки. Исследователи обратили внимание, что сотрудники MIT не назвали уровень точности, при достижении которой работа искусственного интеллекта Amazon считалась бы «правильной». По словам генерального директора по глубокому обучению Amazon Web Services Мэтта Вуда, они самостоятельно проверили систему, используя миллион изображений лиц из базы данных Megaface. В ходе их тестирования искусственный интеллект не допустил ни единой ошибки. При этом представитель компании объявил, что они готовы прислушиваться к результатам сторонних тестов для того, чтобы улучшить свой продукт. Это далеко не первый случай, когда искусственный интеллект Amazon оказался в центре скандала. Летом 2018 года она приняла 28 членов Конгресса за преступников, причем 38% из них были чернокожими. С подобными скандалами имели дело и другие компании. К счастью, они извлекают уроки из ситуаций и постоянно улучшают технологии. В июне Microsoft расширила количество данных, используемых при распознавании лиц — в частности, система начала больше обращать внимание на пол, возраст и оттенок кожи. Это уменьшило количество ошибок при сортировке мужчин и женщин до 20 раз. Источник: hi-news.ru Комментарии: |
|