«Я всех ненавижу»: чат-бот от Microsoft всего за сутки стал расистом и мизантропом |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-03-27 19:17 Компания Microsoft запустила в Twitter блог Тай, самообучающегося робота с искусственным интеллектом, для общения с молодежью. Однако всего за сутки пользователи соцсети научили чат-бота расизму и ненависти к человечеству. Так на взгляды и мировоззрение Тай повлияли посты людей, на основании которых она строила свои последующие высказывания. В результате бот поддержал политику Гитлера и геноцид, а также признался в ненависти к феминисткам. Компании Microsoft пришлось отключить систему до тех пор, пока не бу Источник: vk.com Комментарии: |
|