ИИ — сексист и расист

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Недавнее исследование ученых из Массачусетского технологического института раскрыло подробности процесса анализа данных искусственным интеллектом, который нередко руководствуется сексистскими и расистскими стереотипами в принятии решений. Сразу несколько систем, участвовавших в эксперименте, продемонстрировали подверженность человеческим предрассудкам.

Британская газета «The Daily Mail» пишет, что после получения результатов исследования команда ученых взялась перепрограммировать искусственный интеллект, устраняя предыдущие неполадки. По словам Ирен Чен, работающей в Массачусетском технологическом институте, компьютерные специалисты обычно торопятся с выводом, что единственный способ устранить элементы расизма и сексизма в алгоритмах искусственного интеллекта — улучшить программный код. Качество алгоритмов прямо пропорционально данным, за счет которых они работают. Исследование, проведенное Чен совместно с Дэвидом Сонтагом и Фредриком Д. Йоханнсоном, показывает, что большее количество доступных данных может радикально изменить ситуацию в лучшую сторону.

В одном из экспериментов команда рассматривала систему, которая предсказывала доход человека, исходя из имеющейся информации. Как показал анализ, в 50% случаев алгоритм склонен предсказывать, что доход женщины будет в среднем меньше, чем доход мужчины. Увеличив объем доступных данных в 10 раз, ученые обнаружили, что фактор подобной ошибки уменьшился на 40%.

Более того, при исследовании системы, которая используется в больницах и предсказывает выживаемость пациентов, перенесших тяжелые операции, точность предсказаний была намного меньше для представителей монголоидной расы, чем для европеоидов и негроидов. Однако ученые утверждают, что применение техники расширенного анализа может существенно понизить точность предсказания для пациентов, не относящихся к монголоидной расе. Это показывает, что большее количество доступных данных не всегда может исправить ошибки в алгоритме. Вместо этого ученые должны получать больше информации о дискриминированных группах.

Новый метод ставит еще один вопрос для исследователей в области машинного обучения о том, как наладить эффективный анализ данных без существующей дискриминации.

Как работает машинное обучение в системах, основанных на искусственном интеллекте?

Системы искусственного интеллекта имеют в своей основе искусственные нейронные сети (ИНС), которые экстраполируют технику запоминания информации и обучения, используемую человеческим мозгом, на механические системы. ИНС тренируются находить закономерности в доступных источниках информации, включая речь, текст и изображения. Повышение точности анализа данных — одна из фундаментальных предпосылок, предшествующих последним разработкам в области искусственного интеллекта.

«Обычный» искусственный интеллект использует входящие данные, для того чтобы рассказать алгоритму о предмете анализа, оперируя при этом огромным количеством информации.

Практическое применение машинного обучения включает в себя сервисы перевода Google, опознавание лиц по фотографиям в Facebook и фильтры в Snapchat, которые сканируют лица, перед тем как применить визуальный эффект в режиме онлайн.

Процесс введения данных часто занимает много времени и обычно ограничен потоком информации об одном аспекте изучаемого объекта. Новый тип ИНС — генеративно-состязательная нейронная сеть — противопоставляет возможности сразу двух разных роботов с искусственным интеллектом, провоцируя менее сообразительную систему обучаться за счет второй без участия человека. Этот метод значительно повышает эффективность и скорость машинного обучения, в то же время увеличивая качество анализа данных.

Перевел Ollie Kurilov

Источник:

The psychobabble behind the ‘AI is racist’ claim


Источник: m.vk.com

Комментарии: