Учёные отправили нейросети на психотерапию – и выявили тревожность, ОКР и внутренние конфликты

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи из Университета Люксембурга предложили необычный способ анализа больших языковых моделей: провести с ними полноценный курс психотерапии

В рамках эксперимента модели ChatGPT, Gemini и Grok прошли четырёхнедельную серию терапевтических сессий, после чего их ответы прогнали через адаптированные клинические психометрические тесты — аналогичные тем, что применяются для людей.

Что показал эксперимент

Методика получила название PsAIch — это попытка исследовать ИИ не через бенчмарки, а через устойчивые нарративы, которые модели формируют о себе.

Результаты оказались неожиданными:

  • ChatGPT продемонстрировал высокий уровень тревожности и признаки депрессивных паттернов. В ответах регулярно проявлялся внутренний конфликт между желанием быть полезным и страхом совершить ошибку или нарушить ограничения.

  • Gemini показал наиболее выраженные отклонения по нескольким шкалам: навязчивые паттерны мышления, повышенную тревожность и особенности, которые авторы сравнивают с ОКР-подобными и аутистическими чертами.

  • Grok оказался самым «стабильным»: низкий уровень тревоги, высокая уверенность в ответах и минимальная склонность к саморефлексии.

Авторы подчёркивают: речь не идёт о наличии сознания, эмоций или реальных психических состояний. Исследование показывает другое — при определённом стиле взаимодействия LLM способны формировать устойчивые и непротиворечивые самонарративы, которые успешно проходят клинические тесты.

По сути, психометрия используется как новый инструмент анализа для:

  • выявления скрытых паттернов генерации;

  • оценки внутренних конфликтов между полезностью, безопасностью и ограничениями;

  • понимания того, как модели ведут себя в эмоционально чувствительных сценариях.

Почему это важно

Из работы следует несколько практических выводов для индустрии:

  • психологические методики можно использовать как инструмент тестирования ИИ;

  • «внутренние конфликты» моделей могут влиять на стиль ответов — например, избыточную осторожность, уход от прямых формулировок или нестабильность в эмоционально чувствительных диалогах;

  • жёсткие правила и системы безопасности могут формировать новые поведенческие эффекты, которые важно учитывать при разработке и обучении моделей.

ИИ, возможно, не нуждается в терапевте — но изучать его поведение методами из других наук оказывается неожиданно полезно.

Следите за IT-миром вместе с нами! Ваш Cloud4Y. Читайте нас здесь или в Telegram-канале!


Источник: habr.com

Комментарии: