И снова о лауреатах стипендии Сегаловича этого года ? Герой сегодняшнего поста - Денис Ракитин, 1 курс магистратуры "Математика машинного обучения":

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


И снова о лауреатах стипендии Сегаловича этого года ? Герой сегодняшнего поста - Денис Ракитин, 1 курс магистратуры "Математика машинного обучения":

"Мое знакомство с ФКН началось в 2016 году, когда я поступил на бакалавриат "Прикладная математика и информатика". Это были очень крутые четыре года, за которые я познакомился с огромным количеством интересных людей и разными направлениями в компьютерных науках. Больше всего на меня повлиял курс по теории вероятностей и последовавшие за ним факультативы от Дмитрия Шабанова, "Байесовские методы" Дмитрия Ветрова и работа учебным ассистентом.

Сейчас я продолжаю учиться на ФКН на совместной со Сколтехом магистерской программе "Математика машинного обучения". Здесь активно поощряется научно-исследовательская деятельность, делается акцент на фундаментальных знаниях и есть крутые курсы, связанные с теорвером. Прошел уже почти год с момента поступления, и мне все нравится, хочется учиться дальше. Помимо этого, теперь я уже полноценно работаю в группе байесовских методов, в этом году поучаствовал в преподавании курса нейробайесовских методов, и веду семинары по теории вероятностей у второго курса ПМИ. ФКН сильнейшим образом повлиял на мою жизнь, и я очень рад быть его частью, теперь уже одновременно студентом и сотрудником.

Вместе с коллегами мы занимаемся моделями глубинного обучения с дискретными скрытыми переменными. Такие модели интересны сами по себе, но имеют большой потенциал и с точки зрения практической ценности. Так, добавляя структурный блок в нейросеть, мы как бы наделяем ее априорными знаниями о том, какой вид имеют данные, что может улучшить качество модели, сделать ее более богатой и интерпретируемой и ускорить время работы некоторых архитектур. Проблема таких моделей в том, что их дискретная природа существенно усложняет эффективное градиентное оценивание на этапе обучения. Мы с коллегами как раз занимаемся построением и анализом градиентных оценок в применении к различным структурама. В этой теме есть довольно большой простор для изучения, а возникающие практические трудности только подогревают интерес к тому, чтобы попытаться их преодолеть".

Комментарии: