![]() |
![]() |
![]() |
|||||
![]() |
EXAONE 32B модель, которая превосходит DeepSeek r1 671B |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-21 11:28 ![]() LG AI Research не так давно опубликовала (https://www.lgresearch.ai/blog/view?seq=507) 3 новые инструктивные двуязычные (английский и корейский) модели EXAONE 3.5 с контекстным окном в 32 тыс. токенов: 2.4B (https://huggingface.co/LGAI-EXAONE/EXAONE-3.5-2.4B-Instruct) – компактная модель для использования на устройствах;, 7.8B (https://huggingface.co/LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct) – универсальная модель; 32B (https://huggingface.co/LGAI-EXAONE/EXAONE-3.5-32B-Instruct) – высокопроизводительная модель для задач, требующих максимальной эффективности. Разработчики EXAONE 3.5 улучшили эффективность обучения моделей. На этапе предварительного обучения из наборов данных удалялись дубликаты и личная информация, что позволило повысить качество ответов моделей и оптимизировать использование ресурсов. На этапе постобработки применялись методы SFT и DPO, чтобы улучшить способность моделей понимать инструкции и предпочтения пользователей. Но это еще не все: EXAONE Deep 7.8B превосходит даже OpenAI o1 Mini почти во всех тестах. *** , это безумие. И для всех тех, кто не понимает, насколько это круто: продвинутый ИИ не только становится лучше, но и становится все меньше и меньше с каждым днем, а значит, и дешевле! Модель 32B, которая всего 5% от размера DeepSeek r1, превосходит ее почти во всех тестах. И в ризонинге SLM даже o1-mini. Статья (https://www.lgresearch.ai/blog/view?seq=507) Набор моделей (https://huggingface.co/collections/LGAI-EXAONE/exaone-35-674d0e1bb3dcd2ab6f39dbb4) Demo 7.8B (https://huggingface.co/spaces/LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct-Demo) Arxiv (https://arxiv.org/pdf/2412.04862) GitHub (https://github.com/LG-AI-EXAONE/EXAONE-3.5) Источник: github.com Комментарии: |
||||||