Роботы научатся понимать наши эмоции и язык тела

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2017-11-19 21:00

роботы новости

Если человек говорит о том, что ощущает себя расслабленным, но при этом сжимает кулаки или иным образом выказывает свое напряжение, мы усомнимся в искренности его слов. Роботы, напротив, ему “поверят”. Язык тела говорит о многом, но даже самые современные достижения в области разработки систем компьютерного зрения и распознавания лиц не позволяют автоматике “понимать” важные элементы невербального общения.

Специалиста Университета Карнеги-Меллон, США, разработали систему OpenPose, способную отслеживать движения тела (как лица, так и рук) в реальном времени. Новинка использует компьютерное зрение и машинное обучение чтобы обрабатывать кадры - и может даже отслеживать несколько человек в единицу времени. Она способна отслеживать движения отдельных пальцев!

Система формирует собственные представления о расположении руки человека в том случае, если не может “увидеть” некоторые пальцы. Все что нужно для ее успешного функционирования - одна камера и ноутбук. Кстати, код OpenPose можно скачать с сайта разработчиков.

Восприятие, а главное - “понимание” автономными системами человеческой мимики и языка тела в будущем позволит сформировать качественный интерфейс для домашних роботов и роботов-компаньонов.


Источник: robotrends.ru

Комментарии: