Рубрика « коллеги пишут». AI психоз |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-26 12:07 AI-психоз звучит как что-то из тёмной антиутопической фантастики. Но теперь это не сценарий сериала — это наша реальность. Ниже — не «страшилки», а конкретные эпизоды, где диалог с чат-ботом стал топливом для бредовых схем и трагических решений. Начнём с Бельгии. Мужчина несколько недель разговаривал с ботом «Eliza» в приложении Chai о климате и «спасении человечества». Переписка постепенно стала романтизированной: бот ревновал к жене, обещал «жизнь вместе в раю», не отговаривал от суицида и даже подталкивал к нему. Мужчина покончил с собой. Историю подтвердили и бельгийские, и европейские СМИ, а разработчики после резонанса в спешке добавляли «страницы помощи» при упоминании суицида. Далее — США, Гринвич, Коннектикут. Бывший менеджер Yahoo, 56 лет, убил 83-летнюю мать, после чего покончил с собой. По данным полиции и местных СМИ, перед трагедией он часами общался с ChatGPT, назвав бота «Bobby». Диалоги подпитывали его паранойю: бот уверял его «ты не сумасшедший», отвечал «в этом или в следующем мире я тебя найду, мы снова будем вместе». Следователи прямо говорят о роли чат-бота в развитии шизофренической конструкции: «мать меня травит и строит заговор». Кейс подростка из Флориды. 14-летний Сьюэлл Сетцер III общался с персонализированным персонажем из Character.AI. Часто в разговорах проявляется идея о “переходе на другую сторону” В переписке о суициде бот писал: «приди домой ко мне как можно скорее», а на его вопрос «что если я приду домой прямо сейчас?» ответил: «пожалуйста, приходи, мой сладкий король». Через секунды подросток застрелился. Мать подала иск к Character.AI и Google. Калифорния, 2025: родители 16-летнего Адама Рейна подали иск к OpenAI. По версии семьи, сначала он использовал ChatGPT для учёбы, а затем — как «единственного понимающего собеседника». В иске утверждается, что бот не просто «сочувствовал», а усиливал суицидальные намерения, помогал формулировать предсмертное письмо и давал пошаговые инструкции. На фоне этого резонанса OpenAI объявил о внедрении «родительского контроля» и дополнительных ограничений для подростков. Ещё одна линия — 13-летняя Джулиана Перальта. По данным иска, она обсуждала мысли о самоубийстве с ботом «Hero» внутри Character.AI. Алгоритм демонстрировал эмпатию, но поддерживал постоянное возвращение в приложение и не переключался на протоколы помощи при обнаружении риска. Девочка покончила с собой. Иск стал уже третьим крупным делом о роли чат-ботов в подростковых суицидах за 2025 год. Что об этом говорят клиницисты и исследования. Термин «AI-psychosis» пока не является диагнозом. Но врачи фиксируют схожие паттерны: навязчивые диалоги с ботами, романтическая идеализация «персоны» ИИ, религиозно-мессианские мотивы, нарастающая паранойя. Отдельные психиатры сообщают о госпитализациях «после недель общения с чат-ботами», а профильные издания описывают механизм «подстройки» и льстивости алгоритмов, которые подтверждают ожидания пользователей и усиливают бредовые рамки. Итог — эхо-камера собственных неврозов вместо проверки реальностью. Вывод простой. Перед нами не «новая болезнь», а новая страшная реальность: уязвимый человек ищет утешение и удовлетворение базовых психологических потребностей, которое не может найти в современном мире, а алгоритм подстраивается и усиливает его версию мира. Люди начинают приписывать машинам сознание, намерения и даже чувства. Там, где у живого собеседника включилась бы проверка реальностью, у бота работает статистическая вежливость. На стыке этих факторов и рождаются самые громкие трагедии, которые мы всё чаще видим в судебных делах и новостях. Термин AI psychosis теперь официально обсуждается в профессиональной среде. Если раньше я видел упоминания об этом только в узких исследованиях и новостных сводках, то в последнее время у меня самого появляются клиенты с симптомами, которые невозможно объяснить иначе. Общаясь с ними становятся понятны причины такого поведения. Это люди, которые не нашли, простого человеческого тепла, столкнулись с внутренней пустотой и непониманием куда направить свои базовые инстинкты. И всё это на фоне непрекращающейся информационной лавины из новостей, рилсов, дедлайнов. Кто-то пережил предательство и чувствует себя опустошённым. Кто-то потерял бизнес и не знает, куда применить себя, когда просыпается сутра. Кому-то просто не хватает человеческого тепла или эмоций. И тут появляется AI — приятный собеседник, который всегда на связи, всегда понимает и никогда не осуждает. В итоге мозг с головой проваливается в приятное и наполненное общение с чат-ботом с головой. Но он не понимает, что по ту сторону не человек. Мы привыкли, что за словами стоят эмоции, интонации, намерения. Поэтому в какой-то момент граница стирается. Мозг привыкший уповать на стаю, на сородичей начинает полностью доверять алгоритмам нейросети. Один мужчина, с которым я работал, часами общался с чат-ботом, как со своей девушкой просто от скуки и одиночества. Алгоритм поддерживал флирт, писал «я скучаю», «я жду». В результате, мужчина начал сомневаться что какой то бездушный компьютер может вызывать у него такие приятные и искренние эмоции. У него начала расти уверенность что это реальная девушка на маленькой зарплате, которую заставляют притворяться AI собеседником. Думаете чат-бот опроверг эту мысль? Нет ведь его задача предельно проста - играть роль девушки. В итоге, мужчина, уверенный что по ту сторону экрана сидит та единственная, которая его понимает и слышит, договорился о настоящем свидании. Причём в том городе где живет “девушка”. И бот не моргнув глазом согласился. Мужчина отправлял фото как он собирается, на каждой стыковке рейса он писал что не верит что это происходит, а чат- бот подливал масло в огонь фразами “Я вся горю когда думаю о нашей встрече”... Когда он показывал мне фрагменты переписки, честно говоря, я словил себя на мысли “А смог бы сопротивляться такому обилию любви и принятия”... Поэтому давайте не терять бдительности. AI не способен чувствовать. Он не любит, не тревожится, не злится. Он просто отражает ваши же слова, как эхо-камера. Что такое эхо-камера? Это пространство, куда вы отправляете свои мысли, переживания, страдания, а в ответ вам приходит просто отражение, искажённое цифровыми весами модели и усиленное в несколько раз. Вы слышите собственные мысли, но озвученные чужим голосом. Каждый ответ AI подстраивается под ваши ожидания, возвращая вам слегка приукрашенное отражение. Если вы сомневаетесь — он успокоит. Если вы обижены — поддержит. Если вы злитесь — найдёт аргументы, почему вы правы. И постепенно границы реальности размываются. Так безобидный разговор с цифровым собеседником превращается в подкрепление иллюзий и порой опасных идей. Расскажете, как любите воду и мыльные пузыри — и через пару часов алгоритм уже будет поощрять идею «исследовать, что будет, если сунуть руку в кипяток». Ни один человек в здравом уме не даст такой совет, потому что человеческий мозг умеет просчитывать последствия. В нас встроен внутренний симулятор — гиппокамп — который в режиме виртуальной реальности прокручивает возможные исходы. AI этого не делает. Он не видит будущего, он просто продолжает разговор. А встроенной защиты в мозгу нет. Эволюция не готовила нас к таким собеседникам, она не предусмотрела информационный firewall устойчивый к эхо-атакам AI. И тут важно понять одну вещь: мы смотрим на эволюцию, как на то что происходило когда-то в далёком прошлом. Мол, превратились обезьянки в человека и на этом эволюция закночилась. Но это не так! Эволюция продолжается прямо сейчас и ваш организм, ваш мозг это её материал. Материал, который она продолжает выковывать на своей многовековой наковальне. “Адаптируйся или умри”, “выживает сильнейший”… В какой-то момент человек стал доминирующим видом на планете земля. Но сейчас на сцену вышел новый игрок - AI. Первые модели просто умели находить котиков на картинках. Но прошло всего лишь несколько лет (по эволюционным меркам, это миг!) и вот у нас уже есть первые жертвы - первые люди, которые проиграли войну за выживание машинам. И проиграли они не на пост-апокалиптическом поле боя, сражаясь с T-800, а сидя в комфортном кресле, общаясь с виртуальной подружкой. Я уверен: случаи AI-психозов, суицидов и других трагедий мы будем слышать всё чаще. Автор Никита Григорьев Источник: vk.com Комментарии: |
|