IQuest-Coder-V1: китайская модель, которая обошла лидеров в кодинге |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-04 11:26 Quest Research, поддержанная фондом Ubiquant, представила (https://iquestlab.github.io/) 40-миллиардную модель c контекстным окном в 128K токенов, которая, со слов авторов, выбивает 81,4% на SWE-Bench Verified, 49,9% на BigCodeBench и 81,1% на LiveCodeBench v6. Это превосходит показатели Claude Sonnet 4.5 и GPT-5.1, несмотря на значительно меньшее количество параметров. Модель использует технику "code-flow" — обучение на эволюции репозиториев и коммитах, и разделена на 2 ветки: Dense Models : Base (https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Base) и Instruct (https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Instruct) версии для дообучения и следованию инструкциям Loop Models: оптимизированная версия (https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Loop-Instruct) с максимальной эффективностью по VRAM (int4 может запускаться на 30904090) Архитектура LoopCoder использует циклическую конструкцию трансформера, где одни и те же параметры модели используются в 2-х последовательных проходах обработки данных. На первом проходе модель обрабатывает эмбеддинги через свои слои с учетом позиций слов. На втором проходе модель одновременно использует два типа внимания: глобальное внимание, которое обращается ко всей информации из первого прохода для понимания общего контекста, и локальное внимание, которое смотрит только на предыдущие слова во втором проходе для сохранения последовательности текста. Оба типа внимания комбинируются с помощью механизма, который решает, сколько веса дать глобальному контексту, а сколько локальной последовательности. В техотчете заявлены еще 7B и 14B версии, но сроки их публикации неизвестны. Лицензирование: Modified MIT License (https://huggingface.co/IQuestLab/IQuest-Coder-V1-40B-Instruct/blob/main/LICENSE) Страница проекта (https://iquestlab.github.io/) Техотчет (https://github.com/IQuestLab/IQuest-Coder-V1/blob/main/papers/IQuest_Coder_Technical_Report.pdf) Набор моделей (https://huggingface.co/collections/IQuestLab/iquest-coder) GitHub (https://github.com/IQuestLab/IQuest-Coder-V1) Источник: github.com Комментарии: |
|