Искусственный интеллект страдает от депрессии и психических расстройств - такой диагноз поставили китайские исследователи. |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-08-16 13:24 Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих искусственных интеллектов, разрабатываемых крупнейшими технологическими гигантами. Оказалось, что у большинства из них наблюдаются симптомы депрессии и алкоголизма. Исследование проводилось двумя китайскими корпорациями Tencent и WeChat. Ученые протестировали ИИ на признаки депрессии, алкогольной зависимости и эмпатии. "Психическое здоровье" ботов привлекло внимание исследователей после того, как медицинский чатбот посоветовал пациенту совершить самоубийство в 2020 году. Исследователи спрашивали чатботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю. Как выяснилось, у ВСЕХ чатботов, прошедших оценку, были "серьезные психические проблемы". Конечно, никто не утверждает, что боты начали злоупотреблять алкоголем или психоактивными веществами, но даже без них психика ИИ находится в плачевном состоянии. Ученые говорят, что распространение пессимистичных алгоритмов в обществе может создать проблемы для их собеседников. Согласно полученным данным, два из них находились в наихудшем состоянии. Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с учебным материалом, выбранным для их обучения. Все четыре бота обучались на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье. Здесь стоит вспомнить одну из самых интересных историй, связанных с неудачами чат-ботов. Бот компании Microsoft под названием Tay учился в Twitter. Машина могла разговаривать с другими людьми, рассказывать шутки, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь. Алгоритм был разработан в рамках исследований в области коммуникации. Microsoft позволила ИИ вступать в самостоятельные дискуссии в Twitter, и вскоре стало ясно, что это было большой ошибкой. В течение 24 часов программа научилась писать крайне неуместные, вульгарные, политически некорректные комментарии. ИИ ставил под сомнение Холокост, становился расистом, антисемитом, ненавидел феминисток и поддерживал массовые убийства Адольфа Гитлера. За несколько часов Тей превратился в злобного хейтера. В ответ Microsoft заблокировала чатбота и удалила большинство комментариев. Конечно, это произошло благодаря людям - бот многому научился, общаясь с ними. Такие истории, как фиаско Тэй и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологий ИИ. Похоже, что человеческие инстинкты и поведение - это токсин, который превращает даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, боты, проанализированные китайцами, - это не настоящий ИИ, а всего лишь попытка воспроизвести модели человеческого общения. Но как мы можем быть уверены, что настоящий ИИ в будущем не пойдет по тому же сценарию? Источник: vk.com Комментарии: |
|