Робот с искусственным интеллектом оказался расистом

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ученые из Принстонского университета выяснили, что системы искусственного интеллекта могут демонстрировать признаки расизма. В рамках исследования имена белых людей робот маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов. Кратко о работе сообщает Daily Mail.

В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария».

Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. «Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», - заключают исследователи.


Источник: rns.online

Комментарии: