Алгоритмы ИИ с трудом распознают речь и тексты афроамериканцев

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Системы голосового и текстового распознавания все чаще стали подвергаться критике — последнее исследование ученых Массачусетского университета показало, что голосовая связь, чат-боты и другие технологии на базе искусственного интеллекта часто не способны различить речевые особенности национальных меньшинств. На первый взгляд, проблема не заслуживает внимания, однако ввиду повсеместного внедрения таких систем ее игнорирование усугубляет дискриминацию некоторых групп населения.

Авторами исследования «Программы искусственного интеллекта обучены не замечать афроамериканскую речь» выступили профессор Массачусетского университета Брендан О’Коннор и один из его аспирантов Су Линь-Блоджетт. В процессе изучения необъективности функционирования инструментов распознавания речи и текста эксперты составили базу данных из 59,2 млн постов социальной сети Twitter, которые содержат афроамериканский сленг и жаргон. Полученные сведения впоследствии были изучены с помощью специальных сервисов обработки естественного языка (в исследовании отсутствуют наименования этих программ.— “Ъ”). Выяснилось, что эти инструменты не всегда способны распознать написанное афроамериканцами, более того, один из сервисов посчитал, что публикации и вовсе написаны на датском языке. В процессе исследования эксперты также зафиксировали имеющиеся проблемы при использовании систем анализа значения и тональности текста, написанного афроамериканцами.

«Если вы используете Twitter для понимания политической позиции афроамериканцев и не учитываете сказанное ими, это становится проблемой», — отметил профессор О’Коннор.

Авторы исследования объясняют сложившуюся ситуацию упрощенным процессом машинного обучения, в ходе которого алгоритмы обучаются по имеющимся сведениям в базе данных. Если системы не содержат достаточного количества примеров употребления сленга, диалекта, жаргона, такие системы, как правило, вряд ли поймут вас. Ученые отмечают, что в настоящее время технологии на базе машинного обучения внедряются повсеместно (чат-боты, голосовые помощники, системы анализа общественного мнения в социальных сетях и проверки документов и заявок), что доказывает неэффективность взаимодействия «умных» систем и человека при недостаточном наборе данных.

Проблема предвзятости алгоритмов искусственного интеллекта не нова — в мае 2016 года было опубликовано расследование, которое выявило серьезные недостатки в работе программы COMPAS (Northpointe Inc.), которая используется для решения вопроса об условно-досрочном освобождении заключенных в США. В основу исследования легли решения по условно-досрочному освобождению более 10 тыс. заключенных округа Броуард во Флориде. Опасения авторов доклада о возможной дискриминации темнокожих заключенных подтвердились — система почти в два раза чаще присваивала коэффициент «низкий риск совершения повторного преступления» белым заключенным, чем темнокожим (47,7% против 28%), хотя в течение двух лет на рецидив решились обе расовые группы. Намного сложнее дела обстоят с теми, кто не совершал повторное преступление в течение двух лет после отбывания наказания, однако был ущемлен программой COMPAS — доля афроамериканцев, которым система присвоила коэффициент «высокий риск совершения рецидива» составила 44,9%, в то время как белых заключенных — 23,5%.

Напомним, в июле текущего года эксперты Кейт Кроуфорд (Microsoft) и Мередит Уиттакер (Google) запустили инициативу «Искусственный интеллект сегодня», целью которой станет мониторинг технологий искусственного интеллекта во избежание случаев дискриминации социальных, гендерных и расовых групп. Как отмечают специалисты, производители этих технологий стараются не замечать несовершенство разработанных алгоритмов, так как внесение изменений в них снижает эффективность процесса машинного обучения. Однако эксперты настоятельно рекомендуют не игнорировать проблему, так как речь идет не только об использовании безобидных чат-ботов, но и о вынесении системами на базе искусственного интеллекта куда более значимых для жизни решений — приглашение на собеседование, оценка качества сотрудников, выдача кредитов или решение об условно-досрочном освобождении.

Евгения Чернышева


Куда заведет человека развитие технологий

Китай планирует стать мировым центром искусственного интеллекта к 2030 году. Правительство КНР утвердило план из трех этапов по развитию и внедрению соответствующих технологий, сообщает издание ZDNet. Пока мировые корпорации ищут помощника человеку, ученые бьют тревогу и говорят, что искусственный разум может победить биологический.


Источник: www.kommersant.ru

Комментарии: