Доказано: текущие нейросети никогда не обгонят людей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2026-01-27 11:38

ИИ теория

На сервере препринтов Arxiv было выложено любопытное исследование от отца и сына Вишала и Варина Сикка из Стэнфордского университета и компании VianAI Systems, в котором математически было доказано, что большие языковые модели (LLM) не способы выполнять задачи выше определенной сложности. Это идет вразрез с мнением, что текущие ИИ можно прокачивать бесконечно через увеличение доступных им данных.

И эта работа – не первая, в которой указываются на фундаментальные ограничения LLM. В прошлом году Apple опубликовала исследование, согласно которому LLM неспособны к настоящему рассуждению. Бенджамин Райли, основатель компании Cognitive Resonance, также считает что ИИ никогда не достигнут интеллекта в нашем понимании.

Однако нужно понимать, что все это относится только к LLM. Если будут найдены более эффективные языковые модели – их предел может находиться гораздо выше возможностей нашего интеллекта.


Источник: vk.com

Комментарии: