Робот с искусственным интеллектом оказался расистом |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-08-28 15:02 Ученые из Принстонского университета выяснили, что системы искусственного интеллекта могут демонстрировать признаки расизма. В рамках исследования имена белых людей робот маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов. Кратко о работе сообщает Daily Mail. В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария». Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. «Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», - заключают исследователи. Источник: rns.online Комментарии: |
|