Sakana показала, как будут выглядеть AI-команды будущего: один агент больше не решает всё сам |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-28 11:13 Sakana AI представила работу “Learning to Orchestrate Agents in Natural Language with the Conductor”, принятую на ICLR 2026. Идея простая, но мощная: вместо того чтобы заставлять одну модель тянуть всю задачу на себе, исследователи обучили отдельную 7B-модель быть менеджером для других ИИ. Этот Conductor не пишет код и не решает задачу напрямую. Он смотрит на проблему и сам решает, кого из агентов подключить, какую подзадачу каждому дать и какой контекст показать. По сути, это не просто роутер между моделями, а мета-промпт-инженер, который собирает рабочую AI-команду под конкретную задачу. Самое интересное, что поведение появилось не через жёстко прописанные правила, а через Reinforcement Learning. На простых вопросах Conductor может обойтись одним вызовом модели. На сложных задачах он сам выстраивает цепочку: планировщик, исполнитель, проверяющий, исправляющий агент. Очень похоже на то, как сильная команда разбивает сложную работу на роли. Результаты выглядят серьёзно. 7B Conductor смог обойти каждую отдельную модель из своего пула, включая GPT-5, Gemini, Claude и open-source модели, доступные на момент исследования. В работе заявлены новые рекорды на LiveCodeBench: 83.9% и GPQA-Diamond: 87.5%. При этом система оказалась дешевле тяжёлых multi-agent подходов вроде Mixture-of-Agents. Отдельная фишка называется Recursive Test-Time Scaling. Conductor может выбрать самого себя как одного из рабочих агентов, перечитать результат своей команды, понять, где всё пошло не так, и собрать новый исправляющий workflow. То есть масштабирование на инференсе происходит не просто за счёт “подумай дольше”, а за счёт самосборки новой команды под ошибку. Главный вывод тут не в том, что появился ещё один multi-agent фреймворк. Важнее другое: модели начинают учиться не только отвечать, но и управлять другими моделями. Если раньше AI-системы строились вокруг одного “самого умного” агента, то теперь фокус смещается к оркестрации, ролям, проверкам и коллективному мышлению. И похоже, именно на этом фундаменте Sakana строит свою новую multi-agent систему Sakana Fugu. sakana.ai/fugu-beta) OpenReview: https://openreview.net/forum?id=U23A2BUKYt Телеграм: t.me/ainewsline Источник: openreview.net Комментарии: |
|