OpenCoder - модели для кодинга, cookbook обучения и датасеты |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-11-18 11:43 OpenCoder - это открытое и воспроизводимое семейство LLM для программирования, включающее 1,5B и 8B базовые и instruct версии, поддерживающее английский и китайский языки. Семейство моделей OpenCoder (https://huggingface.co/collections/OpenCoder-LLM/opencoder-model-672e7eee6d4a925e731ea12b) обучалось с нуля на 2,5 трлн. лексем, состоящих на 90 % из сырого кода и на 10 % из веб-данных, связанных с кодом, и прошло отладку на более чем 4,5 млн. высококачественных примеров SFT, в итоге достигнув производительности топовых LLM с похожей специализацией. В открытый доступ опубликованы не только веса моделей и код для инференса (https://github.com/OpenCoder-llm/OpenCoder-llm), но и датасеты, полный цикл обработки данных, результаты экспериментальной абляции и подробные протоколы обучения (https://arxiv.org/pdf/2411.04905). OpenCoder тщательно протестирован с помощью исследований абляции на различных стратегиях очистки данных и процессах обучения, включая эксперименты по дедупликации на уровне файлов и репозиториев, что обеспечило семейству тщательную проверку производительности моделей. OpenCoder достигает высокой производительности в различных бенчмарках, что ставит их в ряд SOTA-моделей с открытым исходным кодом для задач программирования. ?? Семейство моделей OpenCoder : ?OpenCoder-1.5B-Base (https://huggingface.co/infly/OpenCoder-1.5B-Base), 4 тыс. токенов контекста; ?OpenCoder-8B-Base (https://huggingface.co/infly/OpenCoder-8B-Base), 8 тыс. токенов контекста; ?OpenCoder-1.5B-Instruct (https://huggingface.co/infly/OpenCoder-1.5B-Instruct), 4 тыс. токенов контекста; ?OpenCoder-8B-Instruct (https://huggingface.co/infly/OpenCoder-8B-Instruct), 8 тыс. токенов контекста; ?? Датасеты: ?OpenCoder-SFT-Stage1 (https://huggingface.co/datasets/OpenCoder-LLM/opencoder-sft-stage1), 4.21 млн. строк; ?OpenCoder-SFT-Stage2 (https://huggingface.co/datasets/OpenCoder-LLM/opencoder-sft-stage2), 375 тыс.строк. ?? Пример инференса на HF Transformers:
import torch ?Страница проекта (https://opencoder-llm.github.io/) ?Набор моделей (https://huggingface.co/collections/OpenCoder-LLM/opencoder-model-672e7eee6d4a925e731ea12b) ?Arxiv (https://arxiv.org/pdf/2411.04905) ?Набор датасетов (https://huggingface.co/collections/OpenCoder-LLM/opencoder-datasets-672e6db6a0fed24bd69ef1c2) ?GitHub (https://github.com/OpenCoder-llm/OpenCoder-llm) Источник: github.com Комментарии: |
|