Нейросети обучили баскетбольным движениям

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


CMUComputerScience / YouTube

Американские разработчики создали виртуального агента, умеющего выполнять базовые баскетбольные движения и некоторые трюки. В основе агента лежат две нейросети, отвечающие за планирование перемещения и движений рук, соответственно. Во время обучения нейросети получали записи движений реальных людей и за множество обучающих циклов алгоритмы смогли перенять навыки спортсменов. Посвященная разработке статья будет представлена на конференции SIGGRAPH 2018.

В современных анимированных фильмах и играх, как правило, применяются персонажи с заранее заданным набором базовых движений, которые либо выполняются в исходном виде, либо могут немного подстраиваться под конкретный эпизод. Кроме того, в них используется сильно упрощенная физическая модель. Из-за этого во многих моментах движения персонажей и объектов не соответствуют аналогичным движениям в реальном мире.

В качестве альтернативы некоторые исследователи в области компьютерной анимации и машинного обучения предлагают использовать алгоритмы для виртуальных персонажей, способные обучаться выполнению того или иного движения и благодаря этому действовать максимально реалистично. Обычно для этой задачи используется метод обучения с подкреплением, при котором виртуальный агент находится в среде, от которой он получает награду за правильные действия. По мере обучения управляющий агентом алгоритм постепенно учится выполнять такую последовательность действий, которая приводит его к наибольшей награде, а значит, наиболее близка к нужному разработчикам навыку.

Либинь Лю (Libin Liu) из компании DeepMotion и Джессика Ходжинс (Jessica Hodgins) из Университета Карнеги — Меллона использовали в своей работе такой же подход. Исследователи разбили задачу на две части, обучение также проходило в два этапа. Одна из созданных нейросетей-планировщиков движений отвечает за передвижение агента, а вторая — за движение его рук и управление мячом. Сначала агент учился в виртуальной среде передвижению, а после этого его задачей было обучение контролю мяча при выполнении сложных движений, таких как пробрасывание мяча себе между ног без потери контроля над ним.

Упрощенная схема управления агентом

Libin Liu, Jessica Hodgins / SIGGRAPH 2018

Для увеличения эффективности обучения движениям рук разработчики также разбили эту задачу на два этапа. Изначально алгоритм обучался выполнению линейных движений, а затем обученный навык использовался в качестве исходных данных для обучения полноценным нелинейным движениям. В качестве исходных данных для обучения алгоритмы получали записи движений частей тела, сделанные во время выполнения движений реальными людьми. При этом, поскольку точно записывать движения мяча довольно сложно, алгоритмы не получали этих данных и вместо этого самостоятельно подбирали такое движения мяча, которое наилучшим образом согласуется с движениями тела.

Результат работы обученных алгоритмов можно увидеть в опубликованном авторами ролике:

В будущем авторы планируют продолжить работу над созданием спортивных виртуальных агентов и расширить подход на виды спорта, в которых игровые движения сильно влияют на баланс персонажа, к примеру, на футбол, в котором мяч необходимо бить ногами.

Другая группа ученых также представит на конференции SIGGRAPH 2018 алгоритм для виртуальных агентов, выполняющих сложные движения. В частности, авторам удалось обучить алгоритм бейсбольным броскам и приемам из боевых единоборств.

Григорий Копиев


Источник: nplus1.ru

Комментарии: