ИИ можно "научить" видеть что-то похожее на сны и получать удовольствие, но для этого нужно создать искусственный гиппокамп

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



2026-04-21 11:40

Философия ИИ

Он также может избавить ИИ от "галлюцинаций".

Разработка искусственного интеллекта почти такого же как наш мозг столкнулась с серьезной проблемой: нейросети, которые обрабатывают текст, звук и изображения, требуют огромных вычислительных мощностей. Разработчики создают модели с миллиардами параметров, пытаясь заставить один алгоритм решать все задачи. Но такой подход порождает ошибки, которые невозможно устранить добавлением серверов.

Главная проблема современных нейросетей — неспособность работать с противоречивой информацией. Исследования показывают, что например ИИ LLaVA-7B доверяет тексту в десять раз больше, чем изображению. Если показать "ИИ-ше" пустой стол и описать на нем несуществующее яблоко, нейросеть с большой вероятностью поверит тексту и проигнорирует изображение. Это явление по-научному называется "доминированием модальности".

Группа исследователей предложила новый подход: вместо монолитной нейросети создать БЯМ(Большая Языковая Модель), которая копирует процессы человеческого мозга. Такой ИИ непрерывно работает, самостоятельно выявляет логические ошибки и нуждается в «биологическом сне» для закрепления памяти. При этом система оптимизирована и работает на обычной потребительской видеокарте, а не на дорогостоящих серверных кластерах.

Проблема существующих ИИ заключается в обработке разнородной информации. Современные модели используют метод "раннего слияния": текст, звук и изображения сразу переводятся в единый формат и смешиваются. Это приводит к «галлюцинациям», когда система пытается усреднить конфликтующие данные.

Новая архитектура использует принцип «позднего слияния». Данные анализируются независимыми модулями, а результаты сравниваются до выдачи ответа. Процесс разделен на три уровня:

1. Базовый уровень: малые специализированные модели (SLM) обрабатывают рутинные стимулы — зрение, звук, чтение кода.

2. Детектор конфликтов: алгоритм проверяет данные на логические ошибки. В 90% случаев сенсоры согласны, и система отвечает мгновенно. В 10% случаев детектор блокирует ответ.

3. Ресурсоемкий анализ: при обнаружении конфликта активируется крупная языковая модель, которая анализирует данные и принимает решение.

В обновленной версии "Ламы" постоянно работает фоновый алгоритм — "ядро идентичности", который хранит глобальные цели и параметры безопасности ИИ. Поведение системы регулируется цифровыми аналогами нейромедиаторов: дофамин отвечает за обучение, норадреналин — за внимательность, серотонин — за баланс стратегий, кортизол — за уровень стресса.

Одной из главных проблем машинного обучения является «катастрофическое забывание». Исследователи решили эту проблему, разделив память ИИ на два этапа. Во время бодрствования новая информация сохраняется в оперативной памяти (цифровой гиппокамп), а ночью система сканирует данные, отбирает важное и переносит в базовые веса нейросетей (неокортекс). Это позволяет ИИ обновлять знания без потери старых навыков.

Таким образом, интеллект системы зависит не от наращивания мощностей, а от грамотной организации процессов. Копирование нейробиологических механизмов позволяет создать ИИ, который работает автономно, непрерывно обучается и избегает ошибок, свойственных современным моделям.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: