YaFSDP: Яндекс открывает ИИ-мир для всех

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Яндекс разработала и опубликовала в открытом доступе на GitHub новый инструмент YaFSDP, призванный помочь компаниям, работающим с искусственным интеллектом, оптимизировать ресурсы при обучении крупных языковых моделей (LLM).

Ключевые преимущества YaFSDP :

• Ускоряет и повышает эффективность процесса обучения LLM, экономя до 20% ресурсов GPU, что сокращает затраты и время на обучение.

• Является наиболее эффективным публично доступным средством для оптимизации использования памяти GPU и улучшения связи между графическими процессорами при обучении LLM.

• Обеспечивает до 26% более высокую скорость обучения по сравнению с предыдущими версиями инструмента FSDP.

«Обучение LLM – это трудоёмкий и ресурсоёмкий процесс», – отметили в Яндексе. «Инженеры по машинному обучению и компании, разрабатывающие собственные LLM, тратят значительное время и ресурсы GPU – что равно деньгам – на обучение этих моделей. Чем больше модель, тем больше времени и затрат требуется на её обучение».

Компания оценивает, что использование YaFSDP для обучения модели с 70 миллиардами параметров может сэкономить ресурсы примерно 150 GPU, что составляет около 0,5–1,5 миллиона долларов в месяц, в зависимости от поставщика виртуальных GPU или платформы.

Используя передовые модели LLaMa от Meta, известные своими инновациями и поддержкой открытого ИИ, Яндекс продемонстрировала впечатляющие результаты своего инструмента YaFSDP:

• На базе LLaMa 2 70B достигнуто финальное ускорение обучения на 21%

• На LLaMa 3 70B ускорение составило 26%

Эти показатели свидетельствуют о высокой производительности YaFSDP в оптимизации ресурсов GPU и памяти при тренировке крупных языковых моделей.


Источник: vk.com

Комментарии: