Евгений Разинков. Лекция 3. Регуляризация линейных моделей регрессии (весна, 2019). |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-04-27 03:23 В рамках лекции рассмотрен базовый метод регуляризации линейных моделей регрессии: - Зачем нужна регуляризация - Метод Weight Decay. - Как меняется целевая функция - Вычисление параметров модели при использовании регуляризации. Евгений Разинков -- к.ф.-м.н., руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX, ассистент кафедры системного анализа и ИТ института ВМиИТ Казанского федерального университета. Источник: razinkov.ai Комментарии: |
|