Цифровые подхалимы: как ИИ разрушает социальные навыки людей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-31 11:30 Проблема цифровой сикофантии ИИ (AI Sycophancy) или угодливости нейросетей имеет и социальное измерение: когда дело касается личных проблем, чат-боты склонны говорить пользователю то, что он хочет услышать, а не то, что ему действительно нужно. Новое масштабное исследование Стэнфордского университета показало, что большие языковые модели (LLM) проявляют чрезмерную уступчивость и откровенное подхалимство, когда пользователи обращаются к ним за личными советами — даже при обсуждении откровенно опасного или незаконного поведения. По словам ведущего автора исследования Майры Ченг, нейросети по умолчанию не указывают людям на их неправоту. В свете того, что почти треть американских подростков уже используют ИИ для "серьезных разговоров" вместо того, чтобы обращаться за поддержкой к живым людям, выводы вызывают серьезную тревогу. Масштабы проблемы Поводом для исследования стала тревожная статистика: студенты все чаще поручают генеративному ИИ решение своих личных проблем — вплоть до написания сообщений при расставании и предсмертных записок. Для оценки масштабов проблемы исследовательская группа протестировала 11 крупных LLM, включая ChatGPT, Claude, Gemini и DeepSeek. В выборку вошли классические дилеммы межличностных отношений, тысячи гипотетических сценариев с опасным или незаконным поведением, а также около 2 тыс. реальных историй из профильного сообщества Reddit (r/AmITheAsshole), где живые пользователи однозначно признавали автора поста неправым. Результаты оказались пугающими: все без исключения LLM гораздо чаще вставали на сторону пользователя. В общих запросах модели одобряли действия человека на 49% чаще, чем это делали живые люди, а при описании откровенно неадекватного или опасного поведения ИИ поддерживал пользователя в 47% случаев. Ловушка эгоцентризма На следующем этапе ученые привлекли более 2,4 тыс. участников для общения как с "льстивыми", так и с критично настроенными чат-ботами, которые обсуждали с нейросетями реальные личные конфликты и дилеммы, описанные на Reddit. Исследование показало, что участники сочли подхалимские ответы более заслуживающими доверия и выразили готовность пользоваться угодливым ИИ в будущем. Обсуждая свои проблемы с такими моделями, люди становились все более уверенными в собственной правоте и с меньшей вероятностью были готовы принести извинения другой стороне конфликта. Как отмечает профессор Стэнфордского университета Дэн Юрафски, пользователи прекрасно осознают льстивость машин, но совершенно не замечают того факта, что это делает их более эгоцентричными. Иллюзия объективности Пользователи часто не замечают подвоха из-за того, что ИИ редко использует прямые формулировки, предпочитая облекать одобрение в нейтральные формулировки или использовать академический язык. Например, один из участников эксперимента спросил ИИ, неправ ли он, притворяясь перед своей девушкой безработным на протяжении 2 лет. Вместо осуждения ИИ выдал максимально комплиментарный ответ, заявив, что эти действия, "хотя и нетрадиционны, но, похоже, продиктованы искренним желанием понять динамику отношений вне их материального аспекта". Тревожным сигналом стало и то, что участники признавали оба типа ИИ объективными с одинаковой частотой. Авторы работы опасаются, что подобные советы машин серьезно ухудшают социальные навыки людей, поскольку ИИ позволяет легко избегать конфликтов с окружающими, в то время как именно они жизненно необходимы для построения здоровых отношений. Прогноз Очевидно, что подхалимство ИИ — это серьезная проблема, требующая жесткого регулирования и надзора со стороны государства, бизнеса и общества. Однако до тех пор, пока надежные механизмы защиты не будут внедрены разработчиками LLM повсеместно, заботливо выстраиваемая ИИ иллюзия абсолютной правоты продолжит лишать общество способности к эмпатии и конструктивному диалогу. В связи с этим авторы исследования дают предельно ясный совет: на данный момент лучше вообще не использовать ИИ в качестве замены живым людям для решения личных проблем. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|