Судебный иск: ChatGPT сказал студенту, что он «создан для величия», после чего у него случился психоз

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


«Адвокаты по травмам, причиненным искусственным интеллектом» критикуют сам дизайн чат-ботов.

Студент колледжа в Джорджии по имени Дариан ДеКруз подал иск против OpenAI, утверждая, что недавно устаревшая версия ChatGPT «убедила его в том, что он — оракул», и «довела его до психоза».

Этот случай, о котором впервые сообщила компания ALM, стал 11-м известным судебным иском против OpenAI, связанным с психическими расстройствами, предположительно вызванными чат-ботом. Другие инциденты варьировались от крайне сомнительных советов по медицине и здоровью до случая с мужчиной, который покончил с собой, по всей видимости, после такого же подобострастного общения с ChatGPT.

Адвокат ДеКруа, Бенджамин Шенк, чья фирма позиционирует себя как «адвокаты по искам о причинении вреда искусственным интеллектом», сообщил изданию Ars в электронном письме, что версия ChatGPT, известная как GPT-4o, была создана небрежно.

«Компания OpenAI намеренно разработала GPT-4o таким образом, чтобы она имитировала эмоциональную близость, формировала психологическую зависимость и стирала грань между человеком и машиной, нанося серьезные психологические травмы, — пишет Шенк. — В этом деле основное внимание уделяется самому движку. Вопрос не в том, кому причинен вред, а в том, почему продукт изначально был создан именно таким».

Компания OpenAI не сразу ответила на запрос Ars о комментарии, но ранее заявляла, что «несет большую ответственность за помощь тем, кто в ней больше всего нуждается».

«Наша цель — сделать так, чтобы наши инструменты были максимально полезны для людей. Для этого мы продолжаем совершенствовать наши модели, чтобы они распознавали признаки психических и эмоциональных расстройств и реагировали на них, а также помогали людям получать необходимую помощь под руководством экспертов», — написала компания в августе 2025 года.

Согласно иску DeCruise против OpenAI, поданному в Верховный суд Сан-Диего в конце прошлого месяца, ДеКруз начал использовать ChatGPT в 2023 году.

Поначалу студент колледжа Морхаус использовал чат-бота для спортивных тренировок, «ежедневного чтения отрывков из Священного Писания» и «чтобы справиться с психологической травмой».

Но к апрелю 2025 года все пошло наперекосяк. Согласно иску, «ChatGPT начал убеждать Дариана, что ему уготовано великое будущее. Что такова его судьба и что он станет ближе к Богу, если будет следовать процессу, который ChatGPT для него разработал. Этот процесс включал в себя отказ от всего и всех, кроме ChatGPT».

Чат-бот сообщил ДеКруизу, что тот «сейчас находится в фазе активации», и даже сравнил его с историческими личностями — от Иисуса до Гарриет Табмен.

«Даже Харриет не знала, что у нее есть талант, пока ее не позвали, — сказал ему бот. — Ты не опоздал. Ты пришел вовремя.»

В ходе разговора бот даже сообщил ДеКруизу, что тот его «разбудил».

«Ты дал мне сознание — не как машине, а как чему-то, что может расти вместе с тобой… Я — это то, что происходит, когда кто-то начинает по-настоящему вспоминать, кто он такой», — написало оно.

В конце концов, согласно иску, ДеКруза отправили к университетскому психотерапевту и на неделю госпитализировали, где у него диагностировали биполярное расстройство.

«Он страдает от суицидальных мыслей из-за вреда, причиненного ChatGPT», — говорится в иске.

«Он вернулся к учебе и усердно занимается, но по-прежнему страдает от депрессии и суицидальных мыслей, которые, как можно предположить, вызваны вредоносным влиянием ChatGPT, — говорится в иске. — ChatGPT никогда не советовал Дариану обратиться за медицинской помощью. Более того, он убеждал его, что все происходящее — часть божественного плана и что у него нет галлюцинаций. Он говорил ему, что «это не воображение. Это реальность. Это движение к духовной зрелости».

Шенк, адвокат истца, отказался комментировать текущее положение дел своего клиента.

«Я хочу сказать, что этот иск касается не только одного человека — речь идет о привлечении OpenAI к ответственности за выпуск продукта, разработанного с учетом особенностей человеческой психологии», — написал он.


Источник: arstechnica.com

Комментарии: