Доказано: текущие нейросети никогда не обгонят людей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-27 11:38 На сервере препринтов Arxiv было выложено любопытное исследование от отца и сына Вишала и Варина Сикка из Стэнфордского университета и компании VianAI Systems, в котором математически было доказано, что большие языковые модели (LLM) не способы выполнять задачи выше определенной сложности. Это идет вразрез с мнением, что текущие ИИ можно прокачивать бесконечно через увеличение доступных им данных. И эта работа – не первая, в которой указываются на фундаментальные ограничения LLM. В прошлом году Apple опубликовала исследование, согласно которому LLM неспособны к настоящему рассуждению. Бенджамин Райли, основатель компании Cognitive Resonance, также считает что ИИ никогда не достигнут интеллекта в нашем понимании. Однако нужно понимать, что все это относится только к LLM. Если будут найдены более эффективные языковые модели – их предел может находиться гораздо выше возможностей нашего интеллекта. Источник: vk.com Комментарии: |
|