Российский учёный нашёл объяснение "галлюцинациям" у нейросетей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-02 12:06 Научный сотрудник из НИУ ВШЭ Растям Алиев исследовал склонность искусственного интеллекта к галлюцинациям. В статье "Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху" он сравнивает вымышленные факты, которые генерируют большие языковые модели, с симптомами психических заболеваний у людей. «Наше общество всегда представляло искусственный интеллект как холодного и безэмоционального робота, что больше соответствует диагнозу аутизма. Однако нейросети не демонстрируют признаков РАС. Они интерпретируют эмоции в тексте и создают когнитивные искажения, — объясняет Алиев. — Чтобы проверить, что "пациент" болен, достаточно попросить ИИ отвечать как человек с шизофренией. Точность его ответов возрастает, как будто он внимательнее к деталям, то есть к знакам». При сложных запросах галлюцинации усиливаются: не находя готового ответа, нейросеть комбинирует реальные факты с собственными домыслами. Этот феномен порождает новое понятие — метасимулякр, псевдореальность, где алгоритмы формируют способы мышления. Алиев считает это признаком "психических болезней" ИИ. «Продукты ИИ основаны на реальности, но предвосхищают ее. Изображения реальных людей или мест с искажениями — типичный пример метасимулякра», — добавляет Алиев. Особенность современных ИИ — неспособность распознавать свои ошибки. Большие языковые модели уверены в правильности ответа, даже если он неправдив. Когда пользователь указывает на неточность, нейросеть приводит аргументы, которые оказываются ее галлюцинациями. Ученый предупреждает: доверять ИИ сейчас полностью нельзя. «В современном мире ИИ становится частью повседневности, заменяя сотрудников и даже помогая в психологии. Но относиться к нему нужно осторожно. Помните, что ваш собеседник "болен", и всегда перепроверяйте его ответы», — заключает Алиев. В будущем Алиев не исключает создание "чистых и полноценных" ИИ без склонности к галлюцинациям. Но для этого нужно глубже понять природу этих "расстройств". Источник: vk.com Комментарии: |
|