![]() |
![]() |
![]() |
|||||
![]() |
Llama3-SWE-RL: Методика обучения LLM для задач разработки ПО с использованием RL |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-02-28 13:49 ![]() ![]() ![]() ![]() SWE-RL (https://arxiv.org/pdf/2502.18449) – техника обучения LLM для задач разработки программного обеспечения с применением обучения с подкреплением на данных открытых репозиториев Github. Llama3-SWE-RL наделяет навыкам ризонинга, улучшая результаты на задачах вне общего домена кодинга: функциональное программирование, использование библиотек, планирование кода, математические операции и NLP. В отличие от SFT, SWE-RL позволяет модели улучшать свои общие способности рассуждения. Пайплайн методики состоит из последовательности этапов: Первый этап - сбор, модерация и агрегирование pull requests из публичных репозиториев Github, разметка и преобразование этого массива в датасет (описание проблемы-контекст кода - "oracle patch") Oracle patch - это эталонный вариант исправления кода, используемый для обучения и оценки языковых моделей в задачах, связанных с автоматическим решением проблем в программном обеспечении Второй этап: обучение LLM навыкам генерации кода на основе задачи и контекста, расчет поощрения для RL (тут используют similarity score между инференсом модели и "oracle patch" с использованием difflib.SequenceMatcher. Неверные ответы получают отрицательный reward) Третий этап: корректировка и оптимизация политики обучения с помощью GPRO. Тестовая модель Llama3-SWE-RL-70B, обученная на основе Llama-3.3-70B-Instruct с использованием SWE-RL, показала 41.0% solve rate на SWE-bench Verified, это лучший показатель среди моделей среднего размера (<100B) и сопоставимо с результатом GPT-4o. Прикладная реализация SWE-RL доступна в репозитории проекта (https://github.com/facebookresearch/swe-rl), где разработчиками представлены шаблоны промптов (https://github.com/facebookresearch/swe-rl/blob/main/src/swerl/core/prompts.py) и реализация функции вознаграждения (https://github.com/facebookresearch/swe-rl/blob/main/src/swerl/core/reward.py) на основе сходства последовательностей. Локальная установка с примером использования в проекте: # Install SWE-RL Лицензирование: CC-NC-4.0 License. Arxiv (https://arxiv.org/pdf/2502.18449) GitHub (https://github.com/facebookresearch/swe-rl) Источник: github.com Комментарии: |
||||||