Двойной спуск, широкие минимумы и стохастический градиентный спуск |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-01-04 18:21 Продолжаем делиться с вами полезными материалами на праздники. Сегодня доклад Максима Кодряна «Двойной спуск, широкие минимумы и стохастический градиентный спуск». В этом докладе Максим попытался связать двойной спуск по эпохам с динамикой модели на поверхности функции потерь: модель претерпевает второй спуск тестового риска именно тогда, когда она движется из изначально обнаруженных узких нестабильных областей к широким хорошо обобщающим минимумам. Мы также рассмотрим неявную регуляризацию стохастического градиентного спуска (Stochastic Gradient Descent, SGD), помогающую нейронным сетям сходиться к подобным широким «однородным» оптимумам. Источник: www.youtube.com Комментарии: |
|