Вместе с коллегами из Сколтеха мы разработали новый метод сжатия языковых моделей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Вместе с коллегами из Сколтеха мы разработали новый метод сжатия языковых моделей. В чем суть — сейчас расскажем.

Метод позволяет сжимать слои нейросетевых языковых моделей типа Трансформер, таких как BERT или GPT, за счет более эффективного представления полносвязных слоев. Таким образом можно серьезно экономить на вычислительных ресурсах.

Научные статьи о результатах наших экспериментов приняли к публикации на конференциях AIST https://aistconf.org/ в Ереване и PACLIC https://paclic2023.github.io/ в Гонконге.


Источник: www.youtube.com

Комментарии: