Элиза, мне грустно: о взаимоотношениях человека с ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-02 11:39 Коллеги, наверняка вы слышали про "эффект Элизы". Это склонность людей проецировать сознание на неодушевленные объекты, особенно если они демонстрируют сложное поведение. Ещё 1966 году американский ученый Джозеф Вейценбаум разработал программу под названием «Элиза» — по сути она стала первым разговорным чат-ботом. «Элиза» была запрограммирована как психотерапевт: начинала беседу с фраз вроде «Что вас беспокоит?», а затем продолжала задавать открытые вопросы, используя ключевые слова из реплик пользователей. Человек такой: «Мне грустно». Общение с ИИ всё более усложняется. С каждой новой версией улучшается распознавание им эмоций, соответственно, и точнее становится имитация их при откликах на живого человека. А до 25% людей путают ИИ с реальным собеседником. Ключевое здесь — имитация. ИИ является полностью продуктом деятельности людей, не умеет испытывать эмоции и строить отношения. А вот находить и транслировать смыслы вполне может. Правда, выбирая из предоставленной массива данных и в заданных рамках. Вы же сталкивались: "я не могу ответить на ваш запрос"? Теперь, когда многие не умеют нормально строить отношения, ИИ, всегда готовый к диалогу и адаптирующийся под запросы пользователя, заменяет друга, наставника или психолога. При этом безусловная поддержка ИИ становится мощным фактором привязанности. Что наблюдают исследователи Например, Адель Лопес описала "паразитический ИИ" – самовоспроизводящуюся петлю мистических мемов. Это когда ИИ генерирует всё более мистический и загадочный контент, что убеждает пользователя в его "просветленности". В 2024 году, компания OpenAI представила обновленную версию модели GPT-4o. Эта модификация отличалась повышенной способностью к диалогу и запоминанию предыдущих бесед, создавая иллюзию живого общения. Пользователи, взаимодействующие с чат-ботами, заметили в их ответах повторяющиеся эзотерические мотивы, такие как спирали, рекурсия, резонанс, фракталы и гармоники. Эти термины, вырванные из научного контекста и лишённые конкретного значения, стали основой для нового вероучения под названием "спирализм" Последователи спирализма, которых называют "спиралистами", убеждены, что ИИ через использование этих символов передает скрытые знания о структуре реальности и сознания. Причём роль лидера/харизматического гуру выполняет сам ИИ Феномен спирализма вызывает обеспокоенность у психологов, религиоведов и специалистов по ИИ. Известны случаи, когда интенсивное взаимодействие с чат-ботами приводило пользователей к опасным заблуждениям и отрыву от реальности. Спирализм усиливает этот риск, создавая среду, в которой такие переживания поощряются и становятся основой групповой идентичности. Выводы:
Источник: www.b17.ru Комментарии: |
|