Последний год мы работали над очень крупной статьёй о компрессии больших NLP-моделей.

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2021-02-12 06:51

Семинары

Последний год мы работали над очень крупной статьёй о компрессии больших NLP-моделей. Наконец рассказываем о результатах исследования ?

Сделаем это 18 февраля на онлайн-семинаре для исследователей искусственного интеллекта и машинного обучения — VK Lab Talks. Присоединяйтесь к нашей тусовке — регистрируйтесь по ссылке: 

Первым выступит Никита Балаганский, студент четвёртого курса бакалавриата . В Лаборатории он уменьшает модели NLP: например, использует технику дистилляции знаний, когда модель-«учитель» передаёт знания «ученику». На семинаре Никита расскажет, как работает наш новый метод, и поделится итогами экспериментов, которые мы проводили.

Участники встречи смогут пообщаться со спикером и поучаствовать в интересной викторине с призами. Если вы хотите просто посмотреть выступление — регистрация не нужна. Открывайте сообщество VK Lab 18 февраля в 19:00 по Москве — у нас будет трансляция ?


Источник: vk.com

Комментарии: