Как мультимодальные модели учатся понимать текст, картинки, видео... — Андрей Кузнецов — Семинар AGI

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2023-09-15 16:26

ИИ теория

Как мультимодальные модели учатся понимать текст, картинки, видео и аудио — Андрей Кузнецов (Исполнительный директор по исследованию данных Sber AI, Научный консультант AIRI)
Семинар русскоязычного сообщества AGI
14 сентября 2023, 18:00 (время московское)

От спикера: С 2010 года занимаюсь исследованиями в области компьютерного зрения, в 2013 г. защитил диссертацию на соискание учёной степени к.т.н., за спиной большое количество научных исследований, работ и более 60 публикаций в журналах и тезисах международных конференций уровней Q2/Q1 и A/A*, индексируемых базами данных Scopus и Web of Science (H-Index = 11). В 2021 году руководил командой Самарского университета в коллаборации с командами Sber AI, SberDevices и AIRI в рамках проекта ruDALL-E. Последние два года руковожу исследованиями в Sber AI и AIRI, где мы разрабатываем такие модели как генеративная модель синтеза изображений и видео по тексту Kandinsky, мультимодальная многозадачная модель RUDOLPH, модель переноса лица с одного фото на фото или видео GHOST и другие решения в области CV, NLP и мультимодальных архитектур.
- https://scholar.google.com/citations?...
- https://orcid.org/0000-0001-6446-8663
- https://t.me/complete_ai


Источник: www.youtube.com

Комментарии: