Американец попал в психушку после совета ChatGPT заменить соль на бромид натрия |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-08-11 11:20 На протяжении трёх месяцев 60-летний мужчина соблюдал диету, которую ему порекомендовал ИИ. Американец, в юности изучавший нутрициологию, решил исключить из своего рациона хлорид и обратился за помощью к ChatGPT. Чат-бот посоветовал заменить хлорид бромидом натрия (при этом нейросеть не предупредила о его токсичности). В итоге у гражданина США началась паранойя, а также слуховые и зрительные галлюцинации. Позже он пережил полноценный психотический эпизод. Пациента отправили на принудительное лечение. Сейчас с ним всё хорошо. Источник: vk.com Комментарии: |
|