Google разрабатывает новую технологию которая может считывать язык тела без использования видеокамер |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-05-07 02:33 Google разрабатывает «новый язык взаимодействия» в лаборатории Advanced Technology and Projects, который позволит общаться с устройствами языком жестов.
Система ATAP анализирует движения, чтобы увидеть, готов ли человек к взаимодействию, а все остальное время работает в фоновом режиме. Команда использовала радарный датчик Soli, чтобы определить близость, направление и маршруты людей вокруг. Затем он анализирует эти данные, чтобы определить, смотрит ли кто-то на датчик, проходит ли мимо, приближается или поворачивается к нему. Google создала набор из четырех движений: Approach, Pass, Turn и Glance. Эти действия можно использовать в качестве триггеров для команд или реакций при взаимодействии с интеллектуальными дисплеями или другими устройствами. Некоторые из жестов уже работают на существующих устройствах с поддержкой Soli. Например, в Pixel 4 есть функция Motion Sense, которая откладывает будильник, если помахать рукой, или активирует телефон, если обнаруживает, что к нему приближается рука. Nest Hub Max от Google использует камеру, чтобы увидеть поднятую открытую ладонь, и в ответ приостанавливает воспроизведение мультимедиа. Разработчики объясняют: функция нужна, чтобы пользователь мог переключаться между несколькими устройствами с помощью жестов. Теперь команда ATAP работает над комбинацией некоторых действий, таких как приближение и взгляд, чтобы устройство могло реагировать и в этих ситуациях. Глава отдела дизайна ATAP Леонардо Джусти сказал: «Это самая большая проблема, с которой мы сталкиваемся при работе с этими сигналами». Он сказал, что с подключенными устройствами есть больше возможностей для более сложных алгоритмов, чем на мобильном устройстве. Частью усилий по повышению точности системы является сбор большего количества данных для тренировки алгоритмов машинного обучения, включая правильные действия, а также похожие, но неправильные (чтобы они узнали, что не нужно принимать). Источник: habr.com Комментарии: |
|