![]() |
![]() |
![]() |
![]() |
YaFSDP: Яндекс открывает ИИ-мир для всех |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-06-14 15:43 ![]() Яндекс разработала и опубликовала в открытом доступе на GitHub новый инструмент YaFSDP, призванный помочь компаниям, работающим с искусственным интеллектом, оптимизировать ресурсы при обучении крупных языковых моделей (LLM). Ключевые преимущества YaFSDP : • Ускоряет и повышает эффективность процесса обучения LLM, экономя до 20% ресурсов GPU, что сокращает затраты и время на обучение. • Является наиболее эффективным публично доступным средством для оптимизации использования памяти GPU и улучшения связи между графическими процессорами при обучении LLM. • Обеспечивает до 26% более высокую скорость обучения по сравнению с предыдущими версиями инструмента FSDP. «Обучение LLM – это трудоёмкий и ресурсоёмкий процесс», – отметили в Яндексе. «Инженеры по машинному обучению и компании, разрабатывающие собственные LLM, тратят значительное время и ресурсы GPU – что равно деньгам – на обучение этих моделей. Чем больше модель, тем больше времени и затрат требуется на её обучение». Компания оценивает, что использование YaFSDP для обучения модели с 70 миллиардами параметров может сэкономить ресурсы примерно 150 GPU, что составляет около 0,5–1,5 миллиона долларов в месяц, в зависимости от поставщика виртуальных GPU или платформы. Используя передовые модели LLaMa от Meta, известные своими инновациями и поддержкой открытого ИИ, Яндекс продемонстрировала впечатляющие результаты своего инструмента YaFSDP: • На базе LLaMa 2 70B достигнуто финальное ускорение обучения на 21% • На LLaMa 3 70B ускорение составило 26% Эти показатели свидетельствуют о высокой производительности YaFSDP в оптимизации ресурсов GPU и памяти при тренировке крупных языковых моделей. Источник: vk.com Комментарии: |
|