Deep Learning program |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-06-27 17:50 Я уже писал на эту тему тут. С тех пор прошло прилично времени, и я теперь знаю чуть больше, чем тогда — этим и делюсь :) Есть такой замечательный преподаватель у нас в КФУ — Разинков Евгений Викторович, он читает лекции по Computer Vision, Machine Learning и Deep Learning. Ну а это как раз те вещи, которыми занимаюсь я :) В комментариях я выложу pdf-файл с программой экзаменационного курса Евгения по DL для магистрантов. Лекции как по этому курсу DL(на момент написания поста — только две лекции), так и по другим темам — есть на youtube-канале Евгения — http://video.razinkov.ai Prerequirements: 1) Линейная алгебра — ну хотя бы матрицы перемножать уметь надо, понимать, что такое транспонирование :) 2) Математическая статистика. Конкретнее по темам: -Принцип максимального правдоподобия, оценка параметров распределений(например, нормального распределения) с помощью принципа максимального правдоподобия. Тут конкретного посоветовать не могу, просто серч в инете. Для чего? На основе этого принципа выводятся функции потерь для различного рода задач в DL. -Распределения, виды распределений, их параметры, функции плотностей и вероятностей. Тут просто серч в инете. Самое главное — нормальное распределение :) Тут одно и очень большое но! Для того, чтобы въехать во все эти темы в мат. статистике — нужно копнуть чуть глубже и изучить весь тот фундамент, который лежит под этими темами. Проще — изучить курс теории вероятностей и математической статистике. Посоветую лишь курс по теории вероятностей от Андрея Райгородского. После него дальше изучать теорию вероятностей и мат. статистику будет куда легче :) 3) Machine Learning — базовые вещи, которые послужат фундаментом в Deep Learning. С темами и их содержанием можно ознакомиться на youtube-канале Евгения. Первых пяти лекций вполне хватит, чтобы въехать в DL. Конкретно от себя посоветую: Разобраться в дивергенции Кульбака-Лейблера и в том, почему мы, минимизируя кросс-энтропию, на самом деле минимизируем именно эту дивергенцию. Об этом, и не только, я писал тут. Изучить, что такое vanishing/exploding gradient problem и как с этим бороться. Понять инициализации/техники весов для нейронных сетей. Если Евгений на своем курсе этот момент весьма подробно разберет, то будет круто. Иначе — arxiv.org в помощь :) backpropagation написать ручками для кастомной fully-connected нейронной сети, как я писал тут. Когда-нибудь у меня руки дойдут сделать тоже самое со сверточными нейронными сетями, но это уже совсем другая история :) Источник: m.vk.com Комментарии: |
|