LLM Council мертв: почему совет из нескольких моделей работает в 3 раза лучше

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



LLM Council сейчас на пике хайпа. Статья Оле Лемана набрала 1.3 миллиона просмотров, тысячи людей уже используют эту штуку для реальных бизнес-решений. Но Alex Prompter нашел способ выжать из этого подхода в три раза больше пользы.

Андрей Карпати построил оригинальный LLM Council в ноябре 2025: один запрос одновременно в GPT, Claude, Gemini и Grok, анонимная перекрестная рецензия, синтез финального ответа. 17 тысяч звезд на GitHub.

Оле Леман перестроил совет целиком внутри Claude, заменив четыре модели на пять "стилей мышления". Работает для мозгового штурма, но реальное разнообразие моделей исчезло.

Три работы с топовых конференций (NeurIPS 2024, ICLR 2025, arXiv 2026) показали self-preference bias: LLM-ки оценивают свои ответы выше чужих. Claude, рецензирующий пять ответов Claude, не может их различить.

Alex Prompter собрал три слоя: мультимодельное разнообразие (GPT-5.4 + Claude Opus 4.6 + Gemini 3.1 Pro), настраиваемые линзы анализа и Verbalized Sampling из Стэнфорда (рост разнообразия в 1.6-2.1 раза).

Ссылки:

https://arxiv.org/abs/2404.13076

https://arxiv.org/abs/2410.21819

https://arxiv.org/abs/2604.06996

https://arxiv.org/abs/2510.01171

https://x.com/alex_prompter/status/2043011383457964460


Телеграм: t.me/ainewsline

Источник: x.com

Комментарии: