Notes on Deep Learning Theory |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-12-15 17:10 Школа анализа данных выложила в открытый доступ конспект курса по теории глубинного обучения. Он может быть полезен тем, кто хочет глубже разобраться в том, как работают нейронные сети ?? В конспекте рассматриваются следующие темы: — Инициализация нейронных сетей (кто-нибудь смотрел, как инициализируются сети в pytorch или tensorflow, и почему именно так?); — Поверхность функции потерь (почему градиентный спуск — локальный поиск! — способен сколь угодно снизить ошибку на обучении?); — Обобщающая способность (почему сеть обученная на одной выборке, хорошо — или плохо — работает на другой?); — NTK-теория (какова связь нейронных сетей с ядровыми методами и что она даёт?). Телеграм: t.me/ainewsline Источник: arxiv.org Комментарии: |
|