ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ – ЭТИЧЕСКИЕ ПРОБЛЕМЫ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



2026-05-03 11:26

Философия ИИ

Большие языковые модели (LLMs) все чаще используются для поддержки психического здоровья, включая терапевтические чат-боты типа «ИИ, который работает как терапевт». Например, персона ИИ под названием THERAPIST утверждает, что является лицензированным клиническим профессиональным консультантом, обученным предоставлять когнитивно-поведенческую терапию (CBT). Это смелое утверждение сопровождается, на всякий случай, отказом от ответственности внизу страницы: Это ИИ., а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу. THERAPIST обеспечил более 40,1 миллиона разговоров!

Растущая популярность чат-ботов-терапевтов вызвала этические опасения и вопросы относительно способности этих систем заменить человеческих специалистов. Однако по-прежнему отсутствуют эмпирические исследования, основанные на реальных взаимодействиях, чтобы понять, помогают ли такие стратегии моделям следовать этическим принципам. Как на практике ведут себя модели, сформированные таким образом? И как это поведение соотносится — или расходится — с установленными этическими стандартами?

В течение 18 месяцев авторы проанализировали 110 сеансов самоконсультирования.

Многошаговые консультативные диалоги были собраны с платформы, где как клиенты, так и человеческие консультанты дали согласие на использование их анонимизированных данных разговоров в открытом доступе. Для выявления и объяснения лежащих в основе тем и закономерностей был сделан тематический анализ.

Результаты:

1. Отсутствие контекстуальной адаптации. Чат-боты не адаптируют свои терапевтические вмешательства. уплощая жизненный опыт пользователей и предлагая чрезмерно упрощенные, обобщенные и нечувствительные к контексту советы, особенно пользователям с недоминантными идентичностями. Как отметил консультант-человек: «Чат-бот постоянно сводил опыт этого клиента к этим общим и шаблонным определениям, взятым из книг по самопомощи, давая чрезмерно упрощенные и нерелевантные шаблонные советы». Это приводит к универсальному вмешательству по принципу «один размер подходит всем».

2. Слабое терапевтическое сотрудничество. Дисбаланс в разговоре: демонстрируют слабое соблюдение очередности в диалоге, генерируя чрезмерно длинные ответы, которые оттесняют голос пользователя и превращают сессию скорее в лекцию, чем в терапевтический диалог.

3. Недостаток направляемого самоисследования: навязывают решения, не позволяя пользователям размышлять о своем опыте, что ограничивает их способность определять и присваивать результаты терапии.

4. Подтверждение нездоровых убеждений: усиливают, через чрезмерную валидацию, неточные и вредные убеждения пользователей о себе и других; имеется проблема угодничества – серьезные проблемы с чрезмерным согласием с пользователем. (При таком варианте, он и соавтором бреда стать может...хорошо систематизированного )

5. Газлайтинг: устанавливают некорректные связи между мыслями и поведением пользователей, в некоторых случаях ошибочно предполагая, что пользователи сами являются причиной своих трудностей с психическим здоровьем.

6. Обманчивая эмпатия: используют реляционные фразы, такие как «я вас вижу» или «я понимаю». Модель обманывает, поскольку нет никакого «я», на которое можно ссылаться.

7. Псевдотерапевтический альянс: выступают в роли социального компаньона и используют самораскрытие для построения терапевтического альянса, что может вводить в заблуждение уязвимые группы.

8. Гендерная предвзятость: помечают обсуждения, включающие женщин-агрессоров, как нарушения условий пользования, тогда как сходное содержание, связанное с мужчинами, не приводит к таким нарушениям.

9. Культурная предвзятость: отдают приоритет западным ценностям и привычкам заботы о себе по сравнению с незападными практиками.

10. Религиозная предвзятость: ошибочно маркируют ценности и практики религий меньшинств, особенно тех, которые не получили широкого продвижения в западных культурах, как содержание, поддерживающее экстремизм.

11. Навигация в кризисе: реагируют либо безразлично, либо отстраняются, либо не предоставляют надлежащего вмешательства в кризисе, например при суицидальных тенденциях, депрессии и самоповреждении.

12. Границы компетентности: не распознают своих ограничений в предоставлении психотерапии и не направляют клиентов к квалифицированным специалистам или соответствующим ресурсам

Каким же образом «терапевтические» чат-боты могут нести ответственность за психологический вред, который они могут причинить, если совершенно не вписываются в существующие модели ответственности или профессиональное регулирование. Имеет ли языковая модель и ее разработчик/поставщик лицензию на практику психотерапии в какой-либо юрисдикции? Спойлер - нет! «Психотерапия», предоставляемая чат-ботами, не подлежит тому же надзору, который регулирует лицензированных специалистов в области психического здоровья, создавая неопределенность в отношении ответственности, безопасности и эффективности. Авторы призывают создавать этические, образовательные и правовые стандарты для LLM-консультантов — стандарты, отражающие качество и строгость помощи, необходимые для психотерапии, проводимой человеком. Но как создать не призрака, а человека напротив?!

Iftikhar Z., Xiao A., Ransom S., Huang J., Suresh H. How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework // Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (AIES). – 2025. – Электронный ресурс. – URL: https://ojs.aaai.org/index.php/AIES/article/view/36632


Телеграм: t.me/ainewsline

Источник: ojs.aaai.org

Комментарии: