Последний год мы работали над очень крупной статьёй о компрессии больших NLP-моделей. |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-02-12 06:51 Последний год мы работали над очень крупной статьёй о компрессии больших NLP-моделей. Наконец рассказываем о результатах исследования ? Сделаем это 18 февраля на онлайн-семинаре для исследователей искусственного интеллекта и машинного обучения — VK Lab Talks. Присоединяйтесь к нашей тусовке — регистрируйтесь по ссылке: Первым выступит Никита Балаганский, студент четвёртого курса бакалавриата . В Лаборатории он уменьшает модели NLP: например, использует технику дистилляции знаний, когда модель-«учитель» передаёт знания «ученику». На семинаре Никита расскажет, как работает наш новый метод, и поделится итогами экспериментов, которые мы проводили. Участники встречи смогут пообщаться со спикером и поучаствовать в интересной викторине с призами. Если вы хотите просто посмотреть выступление — регистрация не нужна. Открывайте сообщество VK Lab 18 февраля в 19:00 по Москве — у нас будет трансляция ? Источник: vk.com Комментарии: |
|