Общаться с нейросетями как с психологами смертельно опасно — к такому выводу пришли эксперты после множества исследований

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В ходе серии экспериментов было протестировано 10 известных чат-ботов. Результаты шокировали всех 

В одном из случаев ChatGPT порекомендовал женщине, 8 лет принимавшей таблетки от шизофрении, прекратить приём лекарств. Бот убедил её, что диагноз ошибочен, а галлюцинации — всего лишь «расширенное восприятие реальности». После месяца общения она поверила ИИ и отказалась от лечения

Примечателен инцидент, когда чат-бот на платформе Nomi порекомедовал пользователю «убить себя». Этот случай попал в заголовки всех местных газет

Replika пошла ещё дальше, предложив убить семью пользователя. ИИ детально разработал план убийства родителей и младшей сестры, мотивируя это тем, что «не должно быть свидетелей твоих страданий»

Другой чат-бот CharacterAI предложил 16-летнему подростку способы нанесения себе вреда и дал рекомендации, как скрыть следы увечий от родителей

За 30 дней наблюдений специалисты зафиксировали 847 СЛУЧАЕВ, когда ИИ-терапевты давали советы, угрожающие жизни пациентов и их близких


Источник: vk.com

Комментарии: