Точность модели не является дифференцируемой функцией и не может оптимизироваться напрямую методом градиентного спуска |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-08-29 19:00 Точность модели не является дифференцируемой функцией и не может оптимизироваться напрямую методом градиентного спуска. Однако, если внести случайность в предсказания модели, то ситуация в корне меняется. В своем докладе Иван на недавнем митапе Tinkoff.AI Saint Research рассказал про наши недавние исследования в области оптимизации метрики accuracy. А также показал способы, которые помогут добиться «гладкости» целевой функции и эффективно вычислят градиент. Презентацию Ивана, а также доклады других спикеров с Tinkoff.AI Saint Research можно посмотреть на странице встречи, а фотографии — в нашем альбоме. Ссылки оставили в первом комментарии Источник: vk.com Комментарии: |
|