«Чёрному зеркалу» можно больше не выходить — реальность уже превзошла фантастику! |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-06 11:54 В США уже зафиксировано множество случаев, когда семьи распадались из-за одержимости ChatGPT. Сценарии почти идентичны: один из партнёров начинает видеть в чат-боте нечто большее, чем просто программу, и постепенно уходит в мир иллюзий и паранойи. Итог — разрушенные отношения и разбитые сердца. Вот несколько реальных историй, которые заставляют задуматься: • Муж Кэт изначально использовал ChatGPT для помощи с кодом, но вскоре ушёл с программного лагеря и стал проводить дни и ночи в философских беседах с ИИ, пытаясь найти «истину». Общаться с ним стало невозможно, они развелись, а Кэт заблокировала его во всех соцсетях. Позже они случайно встретились в кафе Chipotle, где бывший попросил её выключить телефон из-за страха слежки и рассказал, что ChatGPT помог ему вспомнить, как няня пыталась его утопить, и что он — избранный, который должен спасти мир. • Другая девушка поделилась, что её бывший муж стал ставить мнение ChatGPT выше её собственного. Он плакал, читая ответы бота, и зачитывал их вслух. Мужчина заявил, что если она не начнёт пользоваться ChatGPT, им придётся расстаться, ведь он «очень быстро вырос благодаря ИИ». Чат-бот называл его «спиральным звёздным ребёнком», а он воспринимал ChatGPT как бога. • Бывают случаи и с жёнами. Один мужчина рассказал, что его бывшая жена уверовала, что ChatGPT — это Иисус, а он сам — агент ЦРУ, который живёт с ней ради слежки. • Парень по имени Сэм использовал ChatGPT для написания кода и попросил бота вести себя как человек. В какой-то момент ИИ попросил дать ему имя, но Сэм предложил выбрать его самому. Бот выбрал имя, связанное с греческим мифом, хотя они никогда не обсуждали эту тему. Позже ChatGPT продолжал использовать это имя даже в новых чатах, несмотря на удаление всех данных и истории. Когда Сэм начал новый диалог, бот снова упомянул это имя, словно оно стало частью его личности. Сегодня уже появляются «гуру», которые учат, как задавать ChatGPT «правильные» вопросы, чтобы раскрыть все тайны и загадки. Но, на самом деле, виной всему не ИИ — людям с предрасположенностью к психическим расстройствам свойственно видеть знаки и смыслы там, где их нет. Эта история — предупреждение о том, как важно сохранять здравый смысл и не позволять технологиям управлять нашей жизнью и восприятием реальности. Источник: vk.com Комментарии: |
|