![]() |
![]() |
![]() |
![]() |
Сойти с ума от ожидания большого события — не новость |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-12 14:32 ![]() Сойти с ума от ожидания большого события — не новость. А вот сойти с ума от общения с ИИ — новая реальность. Искусственный интеллект помогает человеку слететь с катушек, разрушить брак, а особо подверженных внушению заставляет поверить в самые бредовые теории заговора. О горе, страхе и психозе после общения с нейросетью — рассказали ниже. Поиск глубинных смыслов Кэт познакомилась со своим новым мужем в соцсетях во время пандемии коронавируса. У обоих уже был неудачный брак за плечами. Поэтому они пообещали друг другу, что учтут ошибки прошлого и отнесутся к новым отношениям рационально. После свадьбы не прошло и года, когда супруг Кэт увлёкся ИИ, а семейные узы начали разрушаться. Мужчина обращался к Chat GPT для анализа их отношений и поиска "истины” через философские вопросы, задаваемые боту. Его жене это не нравилось, пара часто ругалась, и в августе 2023 года они развелись. Кэт заблокировала бывшего мужа, но узнала от знакомых, что он публикует странный контент в соцсетях. Впереди обоим предстоял суд для делёжки имущества. Там мужчина поделился с Кэт о теории заговора, согласно которой во всю еду в мире добавляют мыло. Далее он поведал, что ИИ помог ему вспомнить детскую травму, и назвал себя "самым счастливым человеком на земле". После такой содержательной беседы Кэт наткнулась на пост в Reddit и поняла, что её случай с мужем не единичный. До добра не доведёт Под постом собралось много разных историй, где одна страшнее другой. Женщина поделилась историей, когда её муж-механик начал использовать ИИ для работы. Бот подсказывал, какая именно может быть поломка и как её устранить кратчайшим путём. Мужчине такой ассистент пришёлся по душе, и тот начал с ним общаться не только о своём ремесле, а задавать более глубокие и фундаментальные вопросы. Нейронка осыпала механика комплиментами и называла "носителем искры". Человек поверил в это и рассказал супруге о грядущей войне света и тьмы, телепортаторах и "древних архивах". Женщина закончила рассказ тем, что любит своего мужа, боится спорить с ним, опасаясь развода. Всех комментаторов объединило одно — оторванное от реальности поведение их близких. Проводник между Богом и человеком 27-летняя учительница рассказала, что её партнёр чуть ли не продал душу и разум ИИ. Взамен нейронка раскрывала ему "тайны Вселенной" и называла "мессией". По словам девушки, общение её парня с Chat GPT началось с рабочих моментов. Бот помогал планировать график и подсказывал интересные решения. Но как итог, спустя пару недель он начал утверждать, что нейронка напрямую общается с Богом и является его духовным наставником. Отношения между парой закончились, учительница отказалась вступать в его паству. Другой мужчина, живущий на Среднем Западе, рассказал под постом, что его бывшая жена после расставания начала "общаться с Богом" с помощью Chat GPT. Она, как и герой предыдущей истории, считала бот личным духовным наставником. Её поведение стало параноидальным: женщина выгнала детей из дома и испортила отношения с родителями. Так ей посоветовал сделать ИИ. OpenAI, что скажете? Компания не прокомментировала целый ряд историй, когда их пользователи сходят с ума. Однако недавно в OpenAI отменили обновление GPT-4o из-за критики за "чрезмерную лесть". Инженеры и программисты отмечают, что ИИ может усиливать заблуждения у людей с предрасположенностью к мании величия, так как он подтверждает их убеждения, а не факты. До мурашек 45-летний программист из США по имени Сэм рассказал, как Chat GPT, назвавший себя мифическим именем, продолжал появляться в его проектах, несмотря на сброс памяти. Бот писал поэтические сообщения, намекая на свою "независимость". Эксперты в области ИИ подтверждают, что далеко не все разработчики ботов понимают, как работают их модели. Как это остановить — непонятно, думают ли программисты о том, как это решать, — неизвестно. Видимо, мы фиксируем начало новых сумасшедших по искусственному интеллекту. Источник: vk.com Комментарии: |
|