Новый метод градиентной оптимизации с использованием экспоненциального затухания, MAMGD, для нейронных сетей и многомерных действительных функций разработан российскими учеными |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-09-09 12:23 Описаны алгоритм (см. скриншот) работы оптимизатора, математические идеи и применяемые методы. Приведены результаты экспериментов на основе минимизации действительных функций и результаты скорости сходимости нейронных сетей для различных задач машинного обучения, включая регрессию и классификацию. Результаты экспериментов и исходный код размещены в открытом доступе репозитария GitHub: https://github.com/NekkittAY/MAMGD_Optimizer Для проведения экспериментов метод оптимизации MAMGD был реализован с помощью библиотек глубокого машинного обучения tensorflow и keras. Для построения графиков функций использовалась библиотека matplotlib. В качестве экспериментов были выбраны задачи минимизации многомерных действительных функций, аппроксимации функций с помощью многослойной нейросети и обучение нейронных сетей на популярных датасетах классификации и регрессии. Предложенный подход оптимизации на основе экспоненциального затухания и адаптивной скорости обучения с применением дискретной производной градиентов второго порядка продемонстрировал хорошую скорость сходимости и устойчивость к осцилляциям. Полный текст исследования опубликован в научном журнале “Технологии”. https://www.researchgate.net/publication/383844499_MAMGD_Gradient-Based_Optimization_Method_Using_Exponential_Decay Источник: www.researchgate.net Комментарии: |
|