Американец попал в психушку после совета ChatGPT заменить соль на бромид натрия

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


На протяжении трёх месяцев 60-летний мужчина соблюдал диету, которую ему порекомендовал ИИ. Американец, в юности изучавший нутрициологию, решил исключить из своего рациона хлорид и обратился за помощью к ChatGPT.

Чат-бот посоветовал заменить хлорид бромидом натрия (при этом нейросеть не предупредила о его токсичности). В итоге у гражданина США началась паранойя, а также слуховые и зрительные галлюцинации. Позже он пережил полноценный психотический эпизод. Пациента отправили на принудительное лечение. Сейчас с ним всё хорошо.


Источник: vk.com

Комментарии: