Вероятностный язык построения моделей машинного обучения

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В мини-курсе дается введение в вероятностный язык построения вероятностных моделей машинного обучения. Байесовский подход к теории вероятностей позволяет строить сложные вероятностные модели из простых и хорошо изученных, используя последние как своеобразные кирпичики. Несмотря на все многообразие вероятностного моделирования, в его основе лежит не так много идей и целью курса является знакомство с ними. В частности, в курсе будут рассмотрены алгоритмы байесовского выбора модели, аналитического и вариационного байесовского вывода, обучения с латентными переменными.

Изложение всех базовых методов будет сопровождаться примерами. Будет показано, как знание вероятностного моделирования позволяет получить необычные свойства даже у простейших алгоритмов машинного обучения типа линейной и логистической регрессии. В конце курса будут рассмотрены более сложные примеры т.н. графических моделей, позволяющих моделировать зависимости между сотнями тысяч переменных и находящих широкое применение в задачах компьютерного зрения, обработке сигналов, анализе социальных сетей и пр.

Комментарии: