Зачем нужны оптимизаторы для градиентных алгоритмов

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Зачем нужны оптимизаторы для градиентных алгоритмов. Рассматриваются следующие эвристики: метод импульсов (momentum), импульс Нестерова (NAG), RMSProp (running mean square), AdaDelta (adaptive learning rate), Adam (adaptive momentum), Nadam (Nesterov-accelerated adaptive momentum) и диагональный метод Левенберга-Марквардта.

Инфо-сайт: https://proproprogs.ru/ml

Телеграм-канал: https://t.me/machine_learning_selfedu

Tensorflow (градиентные алгоритмы оптимизации): https://www.youtube.com/watch?v=WYme8F384as&list=PLA0M1Bcd0w8ynD1umfubKq1OBYRXhXkmH

Keras (обучение сети распознаванию рукописных цифр): https://www.youtube.com/watch?v=oCXh_GFMmOE&list=PLA0M1Bcd0w8yv0XGiF1wjerjSZVSrYbjh


Источник: www.youtube.com

Комментарии: