Учёный предложил новое определение AGI: забудьте тест Тьюринга, настоящий ИИ это искусственный учёный |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-19 12:09 В научном сообществе снова разгорелась дискуссия о том, что вообще считать настоящим искусственным интеллектом. Свежая работа Майкла Тимоти Беннетта из Австралийского национального университета с провокационным названием "What the F*ck Is Artificial General Intelligence?" предлагает пересмотреть саму рамку, в которой мы обсуждаем AGI. Беннетт определяет интеллект как способность адаптироваться в условиях жёстких ограничений по вычислениям, памяти и энергии. Если следовать этой логике, то AGI это система, которая адаптируется как минимум настолько же широко, как учёный человек. Она должна уметь планировать эксперименты, обнаруживать причинно-следственные связи, балансировать между исследованием и действием и работать автономно. Автор называет такую сущность искусственным учёным. В статье сравниваются два фундаментальных подхода к построению адаптивных систем: поиск и аппроксимация. Беннетт разбирает плюсы и минусы архитектур вроде o3, AlphaGo, AERA, NARS и Hyperon, а также делит мета-подходы на scale-maxing, simp-maxing и w-maxing, опираясь на идеи Bitter Lesson Саттона, бритвы Оккама и бритвы Беннетта. Отдельный блок посвящён AIXI, принципу свободной энергии и эффекту embiggening в языковых моделях. Главный вывод звучит остро для индустрии, живущей лозунгом "больше параметров, больше данных, больше кластеров". Да, масштабирование аппроксимации сейчас доминирует. Но настоящий AGI, по мнению автора, вырастет из гибрида инструментов и мета-подходов, а узкие места следующего скачка это уже не алгоритмы сами по себе, а энергоэффективность и дефицит образцов для обучения. Оригинальная работа: https://arxiv.org/abs/2503.23923 Источник в X: https://x.com/rohanpaul_ai/status/2045251954537017497 Телеграм: t.me/ainewsline Источник: arxiv.org Комментарии: |
|