Ученый выявил «алгоритмическую шизофрению» нейросетей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-12-24 10:02 Склонность искусственного интеллекта к галлюцинациям исследовал научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев. В статье «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» ученый проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний. Результаты исследования опубликованы в журнале «Логос». «Наше общество долго вдохновлялось научной фантастикой и представляло искусственный интеллект как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения, — объяснил Растям Алиев. — Убедиться в том, что «пациент» болен, довольно несложно: если попросить искусственного интеллекта отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам». Однако при сложных запросах галлюцинации обостряются: не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией». Такой феномен рождает новое научное понятие — метасимулякра — псевдореальности, в которой алгоритмы формируют способы мышления. Ученый считает это еще одним признаком «психических болезней» искусственного интеллекта. «С одной стороны, продукты искусственного интеллекта созданы на основе реальности, с другой — предвосхищают ее. Сгенерированные нейросетями изображения реальных людей или мест с множеством искажений — это типичный пример метасимулякра», — добавил Растям Алиев. Отличительная черта искусственного интеллекта — неспособность выявить собственные ошибки. Большие языковые модели всегда уверены в правильности ответа, даже если он далек от реальности. При этом, когда пользователь указывает на неточность, нейросеть начинает приводить аргументы, которые оказываются лишь ее галлюцинациями. Ученый предостерегает: полностью доверять искусственному интеллекту по-прежнему нельзя. «В современном мире искусственный интеллект становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — подытожил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург. В перспективе Растям Алиев не исключает возможность создания «чистого» искусственного интеллекта, лишенного склонности к галлюцинациям. Однако путь к этому лежит через глубокое междисциплинарное понимание природы этих «расстройств», которому и посвящена его работа. Источник: naked-science.ru Комментарии: |
|