Робоперчатку научили угадывать намерения пользователя |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-02-02 01:19 Южнокорейские инженеры научили роботизированную перчатку понимать намерения пользователя по данным с камеры, установленной на его очках. Во время обучения алгоритм научился связывать изображение с одним из двух действий: сжатием или разжатием руки. Статья с описанием разработки опубликована в журнале Science Robotics. Обычно двигательные намерения пользователя можно понять по активности его мышц. На этом принципе построена электромиография и основанные на ней контроллеры, к примеру, недавно такой представил стартап CTRL-labs. Однако такой метод работает только в случае, если сигналы от мозга достигают мышц конечностей. В случае с людьми, страдающими тетраплегией и другими видами частичного или полного паралича, такой метод неприменим. В таком случае оптимальным методом получения сигнала о планировании движений является электроэнцефалография, однако связывание активности мозга и моторных действий — это технически сложная, хотя и выполнимая, задача. Исследователи под руководством Сон Хо Чжо (Sungho Jo) из Сеульского университета предложили более простой метод, позволяющий прогнозировать планируемые движения исключительно по изображению с камеры, направленной на руки пользователя и захватываемые объекты. В качестве аппаратной платформы авторы использовали роботизированную перчатку Exo-Glove Poly, состоящую из полимерной основы, внутри которой расположены тросы, натяжение которых вызывает сжатие руки. Кроме того, авторы использовали самодельные очки, на переносице которых установлена камера, поле зрения которой примерно совпадает с центром поля зрения человека. В прошлом году японские ученые показали, что люди способны управлять роборукой, подключенной через электроэнцеографический интерфейс, даже если одновременно с этим они выполняют действия при помощи собственных рук. При этом добровольцы выполняли своими руками и роборукой задачи разного типа, к примеру, они смогли одновременно хватать предмет с помощью роботизированной руки и балансировать мяч с помощью собственных рук Григорий Копиев Источник: nplus1.ru Комментарии: |
|