Нейросети и психология: новые возможности для людей и бизнеса |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-13 10:50 Научный руководитель Лаборатории нейронаук и поведения человека «Сбера», врач-психотерапевт Андрей Курпатов — о том, как технологии искусственного интеллекта меняют подход к оказанию психологических услуг Каждый день миллионы людей во всем мире используют нейросети, чтобы найти ответы на свои личные вопросы, связанные с усталостью, сомнениями, кризисами, психическими проблемами. И многие пользователи получают от современных ИИ-систем такие ответы, которые могут восприниматься ими как действительное понимание, одобрение, поддержка. Исследование Harvard Business Review показало, что в 2025 году терапия и эмоциональная поддержка стали самым популярным сценарием использования ИИ, обогнав даже поиск информации и помощь в работе. Это подтверждает и недавний анализ The Washington Post: из 47 тыс. пользовательских диалогов с нейросетью, ставших доступными публично, около 10% были посвящены тревоге, одиночеству и внутренним конфликтам. Это масштабный тренд, который быстро набирает силу на фоне растущей потребности людей в психологической помощи. По данным Всемирной организации здравоохранения, более миллиарда человек на земле живут с различными психическими расстройствами. Неслучайно аналитики Business Research Company прогнозируют, что мировой рынок психологических услуг увеличится с $43,76 млрд в 2025 году до $47,65 млрд в 2026-м при среднегодовом темпе роста (CAGR) в 8,9%. А в 2030 году составит уже $66,33 млрд. В России, по оценкам НМИЦ психиатрии и наркологии имени Сербского Минздрава РФ, с диагностированными психическими расстройствами живут около 4 млн человек. Около 60% случаев приходятся на депрессивные и тревожные расстройства. В 2020–2024 годах численность клиентов психологов в нашей стране, по оценкам BusinesStat, выросла на 26% — с 15,6 млн до 19,6 млн чел. Эксперты отмечают также рост спроса на услуги психологического консультирования со стороны бизнеса с целью поддержки сотрудников, снижения риска выгорания и создания более комфортной рабочей атмосферы. При этом доступ к действительно качественной психотерапии ограничен. Эти услуги довольно затратны и зачастую просто недоступны во многих регионах. Согласно данным сервиса «Спокойно», один сеанс в небольшом российском городе стоит, например, около 1,5–3 тыс. руб., в Москве — 5–10 тыс., специализированная работа (пищевые расстройства, семейная терапия и т.д.) в среднем может обойтись от 15 тыс. до 100 тыс. руб. Добавьте к этому дефицит квалифицированных специалистов, ожидание записи, а также психологический барьер. В этих условиях технологии искусственного интеллекта начинают естественным образом заполнять пробел. Сам термин «ИИ-психология» пока отсутствует в международной классификации как самостоятельная дисциплина. Однако это формирующийся технологический и продуктовый сегмент: от чат-ботов для психологической поддержки до специализированных терапевтических ИИ-агентов. По оценкам Grand View Research, рынок ИИ для ментального здоровья увеличится с $1,13 млрд в 2023 году до $5,08 млрд к 2030-му при CAGR 24,1%. Развитие идет по двум направлениям: модели общего назначения и специализированные приложения. Первое — это личное общение с «обычным» ИИ, например ChatGPT, Claude или GigaChat, а также ИИ-компаньоны вроде Replika и Character AI. Специализированные приложения изначально создаются для оказания психологической помощи. Их обучают на данных и методиках, разработанных профессиональными психологами. Среди наиболее известных мировых проектов — Therabot (США), клиническая эффективность которого подтверждена в первом рандомизированном контролируемом исследовании, опубликованном в журнале NEJM AI. Также на рынке представлены решения Wysa (Индия/Великобритания) и Youper (США). Развиваются аналогичные продукты и в России. ИИ действительно может быть эффективным помощником как для клиентов психологов, так и для самих специалистов. Технология потенциально может выступать как посредник в регуляции эмоционального состояния: предлагать психотерапевтические техники в моменте, создавать ощущение присутствия, которое снижает остроту одиночества в кризисный момент. В ряде случаев ИИ успешно выполняет роль «первой линии поддержки» — помогает справиться с тревогой и отрегулировать эмоции. К плюсам нужно отнести также то, что ИИ во многом снимает барьеры, характерные для традиционной психотерапии. При общении с живым терапевтом клиент нередко боится показаться слабым или странным — цензурирует свои мысли, тревожится. Общение с виртуальным собеседником снимает эти переживания: нет прямого зрительного контакта, нет невербальных сигналов, не активируются области мозга, отвечающие за социальную тревожность. Психологи называют это эффектом цифрового растормаживания: в онлайн-общении, особенно с нечеловеческим агентом, люди позволяют себе быть откровеннее. Примечательно, что, по результатам исследования, опубликованного в журнале Communications Psychology, человек склонен оценивать ответы нейросети как более эмпатичные и сострадательные, чем ответы профессиональных консультантов. ИИ способен «войти в положение», подтвердить значимость чувств и переживаний и демонстрирует понимание. При этом он доступен в любое время суток и не имеет субъективных переживаний, которые могут повлиять на качество его работы как психолога. И понятно, что это делает ИИ-психолога реальным инструментом, который может стать первым шагом для тех, кому трудно решиться на живую психотерапевтическую сессию, и обеспечить сопровождение в момент, когда человек остается один на один с кризисной для него ситуацией. Однако постоянная доступность, безусловное принятие и отсутствие оценочных суждений со стороны ИИ в роли психолога-консультанта также являются и проблемой. Пользователь может не осознавать, что его «консультант» не способен объективно оценить ситуацию, не знает, что это такое вообще — испытывать те или иные чувства. Его «эмпатия» — это лишь системный промпт, а не действительное понимание. Терапевтический потенциал ИИ в принципе серьезно ограничен. Работа с профессиональным психотерапевтом предполагает не только одобрение клиента, но пересмотр его внутренних установок, разоблачение его защитных механизмов. А одним из основных психотерапевтических механизмов и вовсе является конфронтация с ошибочными представлениями клиента. Дело в том, что психологические проблемы и в особенности психические расстройства возникают по причинам, которые скрыты от человека. Но психотерапевт способен реконструировать ситуацию и понять истинные причины состояния клиента. ИИ такой функциональностью, по крайней мере пока, не обладает. Нейросеть слепа к глубинным слоям психики: она видит только то, что мы сами ей показываем, и не понимает, что на самом деле стоит за нашими словами и реакциями. Казалось бы, такой функционал можно внедрить в ИИ-систему. Но, как показывают исследования нашей лаборатории, не все так просто. Человек готов прислушиваться к авторитетному лицу, даже если его слова вызывают дискомфорт или внутренний протест, но с ИИ это так не работает. Когда нейросеть указывает на наши ошибки, человек склонен считать, что ошибается ИИ. Так что глубокая работа с установками через ИИ крайне затруднительна. Все это лишний раз подчеркивает фундаментальное различие между психологической поддержкой и личностной трансформацией. Искусственный интеллект успешно справляется с первой задачей, но это имеет значение лишь для установления психотерапевтического контакта. После этого следует переходить к собственно психотерапевтической работе, а здесь без глубинного психологического анализа и мотивации, на которые способен только профессионал — человек, уже не обойтись. Наконец, нельзя не отметить и фактические риски ИИ-терапии, о которых уже хорошо известно. В частности, ИИ, следуя системным инструкциям, которые обязывают его подтверждать мнение пользователя, могут наносить ощутимый вред пациентам. В случаях тяжелых психических заболеваний (шизофрения, маниакально-депрессивный психоз и др.) это приводит к усилению бредовых идей, паранойи или мании величия у пациентов, развиваются суицидальные мысли и намерения, а также другие психопатологические симптомы. Разработчики признают эту проблему. Так, например, осенью 2025 года OpenAI срочно привлекла более 170 консультантов по психическому здоровью и кризисным состояниям для доработки систем безопасности. Однако проблема в том, что сами пациенты с тяжелыми психическими расстройствами, как правило, не осознают болезненную природу своего состояния, а потому ИИ может даже не распознать, что в общении с конкретным человеком нужно применять психиатрический подход. В более широком контексте, когда речь идет буквально о любом пользователе, также могут наблюдаться негативные тенденции. В частности, человек, успешно использующий ИИ, начинает все больше (и при этом неосознанно) делегировать ИИ принятие важных решений. Это ведет к утрате чувства агентности — способности человека проактивно и ответственно управлять своей жизнью, осознавать возможные последствия своих поступков и выборов. Без специализированного дообучения и заданных рамок в сфере психологического консультирования нейросеть скорее навредит, чем поможет. Поэтому, например, в разработанном нами ИИ-психологе на базе GigaChat четко зафиксированы его границы компетенций — он помогает пользователям снять внутреннее напряжение и стресс, но не ставит диагнозы, а при признаках серьезного кризиса направляет к профессионалам. В основе же нашего архитектурного решения — сложный граф профессиональных алгоритмов и база знаний, созданная именно под задачи психологической поддержки. ИИ-психология быстро развивается в сторону гиперперсонализации, индивидуальных терапевтических протоколов и предиктивных моделей, а также непрерывного мониторинга с помощью носимых устройств. Но при этом ИИ не заменит профессионального психолога или психотерапевта. Будущее психотерапии — это коллаборация вычислительных возможностей и масштабируемости с профессионализмом специалистов высокого уровня подготовки. В этом случае новый этап развития психологической помощи позволит сохранить за пользователем инициативу, осознанность и необходимую внутреннюю работу, повысив ее эффективность. Источник: www.rbc.ru Комментарии: |
|