Мета-обучение: на пути к машинному обучению «из коробки» — События Яндекса |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-06-05 16:32 Напоминаем, что открытая лекция про метаобучение от исследователя, руководителя группы теории Глеба Гусева состоится 8 июня в 19:00 в офисе Яндекса. Зарегистрироваться ещё можно по ссылке: https://ya.cc/3Y-PQ Вот анонс лекции: На лекции мы обсудим, как работает градиентный бустинг — основной подход в машинном обучении к задачам с разнородными факторами, созданными вручную, зашумлёнными метками и сложными зависимостями. Мы опишем детали классического алгоритма, расскажем об основных направлениях его дальнейшего развития и перечислим открытые вопросы. Во второй части доклада мы поговорим об одной из самых актуальных задач современности: о машинном обучении «из коробки». В задачах машинного обучения мы имеем на входе датасет и функцию, которая измеряет качество модели на тесте. На практике 99% успеха зависят от грамотного выбора и настройки следующих компонентов: препроцессинг фичей, алгоритм обучения, значения гиперпараметров. Обычно это требует высокой квалификации и больших временных затрат. Задача метаобучения — автоматизировать этот процесс. Один из возможных подходов — применение методов black-box optimization. Они основаны на многократном вызове алгоритмов обучения с разными возможными компонентами и непосредственном сравнении результатов. В случае большинства реальных задач это требует высоких вычислительных мощностей и, опять же, большого количества времени. Возможная альтернатива — обучить модель, которая «предсказывает» оптимальные компоненты на основе метафичей всех входящих данных (датасет и функция качества). Мы расскажем вам о классических и новых методах решения этой задачи на примере градиентного бустинга на решающих деревьях. P.S. В прошлом посте про эту лекцию мы допустили ошибку: указали неправильную дату. Простите нас и приходите слушать Глеба в пятницу! Источник: ya.cc Комментарии: |
|