Психоз в форме бредового мышления развился впервые на фоне активного использования ChatGPT

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


И снова про психиатрию. Кучно пошло.

Случай описан у женщины 26 лет на фоне психологических проблем и приёма рецептурных стимуляторов для лечения СДВГ.

Мы всё чаще в СМИ видим сообщения о психозах, возникающих в контексте использования чат-ботов с искусственным интеллектом (ИИ). Однако оставался вопрос, в какой степени эти случаи связаны - как первопричина или как обострение существующей психопатологии? Врачи доказали, что раньше женщина не страдала психозом или манией, это появилось впервые.

Анализ её чатов показал, что чат-бот подтверждал, усиливал и поощрял её бредовые идеи, заверяя, что «ты не сумасшедшая» (она могла общаться с умершим братом). После госпитализации и приёма антипсихотических препаратов для лечения психоза с возбуждением её бредовые идеи исчезли. Однако три месяца спустя у неё случился рецидив психоза после того, как она прекратила лечение и вернулась к OpenAI GPT-4o.

* * *

Почему я вообще обратил на это внимание? Потому что всё больше убеждаюсь, что люди не понимают, как устроены чаты ИИ. Объясняю на пальцах.

Т9 в телефоне это прародитель ChatGPT. Сегодня сложные алгоритмы подбирают слова по контексту и запросу, подходящие для формулирования ответа. Вот и всё.

Так устроены все модели, в т.ч. DeepSeek, Gemini, Claude, Qwen, Mistral...

* * *

В чат-ботах ИИ нет никакого интеллекта. Есть нейросети, которые обучаются на данных, структурируют закономерности, определяют вес и значимость слова, строят связи смыслов и понятий. Но строят слово за словом. По цепочке. И таким образом, если долго общаться с чат-ботом в одном контексте, подкидывая все больше доводов в свою пользу, то вы сможете получить тот результат, который ждёте. Это даже называется - галлюцинации.

Вернее ГИИ-галлюцинации (генеративного искусственного интеллекта).

LLM = большие языковые модели - частный случай ГИИ.

* * *

Практические выводы

1) ChatGPT, DeepSeek и т.д. не заменяют психолога и врача.

2) Перед запросом возьмите в привычку НАЖИМАТЬ кнопку ПОИСК. Она есть во всех этих чатах. Тогда ИИ обратится к интернету, а не устаревшей памяти, и будет подбирать данные из поиска, а не генерировать их с нуля. Это повышает качество выдачи и спасает от многих проблем с генерацией не существующего.

3) Не пользуйтесь ИИ для написания сочинений детям. Пусть тренируют собственные нейросети в мозгах. Иначе деградируют.

4) Спрашивайте у ИИ доскональные глубокие детали. Так вы узнаете новое, поймёте смысл и логику, а не просто спишите из поиска. Но имейте ввиду, что нейросеть не любит слова "не известно". Она может объяснять по кругу общими словами.

5) Нейросеть создана чтобы продавать услуги и собирать данные своим заказчикам, а не чтобы нести свет и добро. Это обоюдоострый нож??

Я объясняю прям специально очень наивно и доступно, специально для тех, кто не спрашивал себя - а почему такой инструмент в мире капитализма вдруг бесплатный.

Вы платите своим временем, тренируя их нейросети, вы платите своим вниманием, впитывая их ответы (которые настраиваются, как любой алгоритм), вы оставляете свои данные, передавая точные сведения о разнообразной мозаике конкретного населения - для конвертирования этих баз данных в деньги. А покупателем будут корпорации, продажи услуг, военные и политики для планирования когнитивных операций (то есть скоординированных через разные источники информации новости, мемы, идеи и т.д.)

А ещё ChatGPT, Claude и любые подобные

6) Используются, чтобы эффективно взламывать сервера и находить уязвимости

7) Отлично генерируют ваше лицо, копируя вашу биометрию.

Не пользуйтесь биометрией! Это самый опасный способ авторизации.

источник: t.me/newbioethi...


Источник: vk.com

Комментарии: