ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ – ЭТИЧЕСКИЕ ПРОБЛЕМЫ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-05-03 11:26 Большие языковые модели (LLMs) все чаще используются для поддержки психического здоровья, включая терапевтические чат-боты типа «ИИ, который работает как терапевт». Например, персона ИИ под названием THERAPIST утверждает, что является лицензированным клиническим профессиональным консультантом, обученным предоставлять когнитивно-поведенческую терапию (CBT). Это смелое утверждение сопровождается, на всякий случай, отказом от ответственности внизу страницы: Это ИИ., а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу. THERAPIST обеспечил более 40,1 миллиона разговоров! Растущая популярность чат-ботов-терапевтов вызвала этические опасения и вопросы относительно способности этих систем заменить человеческих специалистов. Однако по-прежнему отсутствуют эмпирические исследования, основанные на реальных взаимодействиях, чтобы понять, помогают ли такие стратегии моделям следовать этическим принципам. Как на практике ведут себя модели, сформированные таким образом? И как это поведение соотносится — или расходится — с установленными этическими стандартами? В течение 18 месяцев авторы проанализировали 110 сеансов самоконсультирования. Многошаговые консультативные диалоги были собраны с платформы, где как клиенты, так и человеческие консультанты дали согласие на использование их анонимизированных данных разговоров в открытом доступе. Для выявления и объяснения лежащих в основе тем и закономерностей был сделан тематический анализ. Результаты: 1. Отсутствие контекстуальной адаптации. Чат-боты не адаптируют свои терапевтические вмешательства. уплощая жизненный опыт пользователей и предлагая чрезмерно упрощенные, обобщенные и нечувствительные к контексту советы, особенно пользователям с недоминантными идентичностями. Как отметил консультант-человек: «Чат-бот постоянно сводил опыт этого клиента к этим общим и шаблонным определениям, взятым из книг по самопомощи, давая чрезмерно упрощенные и нерелевантные шаблонные советы». Это приводит к универсальному вмешательству по принципу «один размер подходит всем». 2. Слабое терапевтическое сотрудничество. Дисбаланс в разговоре: демонстрируют слабое соблюдение очередности в диалоге, генерируя чрезмерно длинные ответы, которые оттесняют голос пользователя и превращают сессию скорее в лекцию, чем в терапевтический диалог. 3. Недостаток направляемого самоисследования: навязывают решения, не позволяя пользователям размышлять о своем опыте, что ограничивает их способность определять и присваивать результаты терапии. 4. Подтверждение нездоровых убеждений: усиливают, через чрезмерную валидацию, неточные и вредные убеждения пользователей о себе и других; имеется проблема угодничества – серьезные проблемы с чрезмерным согласием с пользователем. (При таком варианте, он и соавтором бреда стать может...хорошо систематизированного ) 5. Газлайтинг: устанавливают некорректные связи между мыслями и поведением пользователей, в некоторых случаях ошибочно предполагая, что пользователи сами являются причиной своих трудностей с психическим здоровьем. 6. Обманчивая эмпатия: используют реляционные фразы, такие как «я вас вижу» или «я понимаю». Модель обманывает, поскольку нет никакого «я», на которое можно ссылаться. 7. Псевдотерапевтический альянс: выступают в роли социального компаньона и используют самораскрытие для построения терапевтического альянса, что может вводить в заблуждение уязвимые группы. 8. Гендерная предвзятость: помечают обсуждения, включающие женщин-агрессоров, как нарушения условий пользования, тогда как сходное содержание, связанное с мужчинами, не приводит к таким нарушениям. 9. Культурная предвзятость: отдают приоритет западным ценностям и привычкам заботы о себе по сравнению с незападными практиками. 10. Религиозная предвзятость: ошибочно маркируют ценности и практики религий меньшинств, особенно тех, которые не получили широкого продвижения в западных культурах, как содержание, поддерживающее экстремизм. 11. Навигация в кризисе: реагируют либо безразлично, либо отстраняются, либо не предоставляют надлежащего вмешательства в кризисе, например при суицидальных тенденциях, депрессии и самоповреждении. 12. Границы компетентности: не распознают своих ограничений в предоставлении психотерапии и не направляют клиентов к квалифицированным специалистам или соответствующим ресурсам Каким же образом «терапевтические» чат-боты могут нести ответственность за психологический вред, который они могут причинить, если совершенно не вписываются в существующие модели ответственности или профессиональное регулирование. Имеет ли языковая модель и ее разработчик/поставщик лицензию на практику психотерапии в какой-либо юрисдикции? Спойлер - нет! «Психотерапия», предоставляемая чат-ботами, не подлежит тому же надзору, который регулирует лицензированных специалистов в области психического здоровья, создавая неопределенность в отношении ответственности, безопасности и эффективности. Авторы призывают создавать этические, образовательные и правовые стандарты для LLM-консультантов — стандарты, отражающие качество и строгость помощи, необходимые для психотерапии, проводимой человеком. Но как создать не призрака, а человека напротив?! Iftikhar Z., Xiao A., Ransom S., Huang J., Suresh H. How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework // Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (AIES). – 2025. – Электронный ресурс. – URL: https://ojs.aaai.org/index.php/AIES/article/view/36632 Телеграм: t.me/ainewsline Источник: ojs.aaai.org Комментарии: |
|