Notes on Deep Learning Theory |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-12-15 17:10 Школа анализа данных выложила в открытый доступ конспект курса по теории глубинного обучения. Он может быть полезен тем, кто хочет глубже разобраться в том, как работают нейронные сети ?? В конспекте рассматриваются следующие темы: — Инициализация нейронных сетей (кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?); — Поверхность функции потерь (почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?); — Обобщающая способность (почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?); — NTK-теория (какова связь нейронных сетей с ядровыми методами и что она даёт?). Источник: arxiv.org Комментарии: |
|