Нейросети обучили баскетбольным движениям |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-08-10 10:05 Американские разработчики создали виртуального агента, умеющего выполнять базовые баскетбольные движения и некоторые трюки. В основе агента лежат две нейросети, отвечающие за планирование перемещения и движений рук, соответственно. Во время обучения нейросети получали записи движений реальных людей и за множество обучающих циклов алгоритмы смогли перенять навыки спортсменов. Посвященная разработке статья будет представлена на конференции SIGGRAPH 2018. В современных анимированных фильмах и играх, как правило, применяются персонажи с заранее заданным набором базовых движений, которые либо выполняются в исходном виде, либо могут немного подстраиваться под конкретный эпизод. Кроме того, в них используется сильно упрощенная физическая модель. Из-за этого во многих моментах движения персонажей и объектов не соответствуют аналогичным движениям в реальном мире. В качестве альтернативы некоторые исследователи в области компьютерной анимации и машинного обучения предлагают использовать алгоритмы для виртуальных персонажей, способные обучаться выполнению того или иного движения и благодаря этому действовать максимально реалистично. Обычно для этой задачи используется метод обучения с подкреплением, при котором виртуальный агент находится в среде, от которой он получает награду за правильные действия. По мере обучения управляющий агентом алгоритм постепенно учится выполнять такую последовательность действий, которая приводит его к наибольшей награде, а значит, наиболее близка к нужному разработчикам навыку. Либинь Лю (Libin Liu) из компании DeepMotion и Джессика Ходжинс (Jessica Hodgins) из Университета Карнеги — Меллона использовали в своей работе такой же подход. Исследователи разбили задачу на две части, обучение также проходило в два этапа. Одна из созданных нейросетей-планировщиков движений отвечает за передвижение агента, а вторая — за движение его рук и управление мячом. Сначала агент учился в виртуальной среде передвижению, а после этого его задачей было обучение контролю мяча при выполнении сложных движений, таких как пробрасывание мяча себе между ног без потери контроля над ним. Результат работы обученных алгоритмов можно увидеть в опубликованном авторами ролике:
В будущем авторы планируют продолжить работу над созданием спортивных виртуальных агентов и расширить подход на виды спорта, в которых игровые движения сильно влияют на баланс персонажа, к примеру, на футбол, в котором мяч необходимо бить ногами. Другая группа ученых также представит на конференции SIGGRAPH 2018 алгоритм для виртуальных агентов, выполняющих сложные движения. В частности, авторам удалось обучить алгоритм бейсбольным броскам и приемам из боевых единоборств. Григорий Копиев Источник: nplus1.ru Комментарии: |
|