GPU для ускорения распознавания объектов на Raspberry Pi 3 & Raspberry Pi Zero

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Вы, наверное, уже видели одно или несколько демо-видео по распознаванию объектов, где система, оснащенная камерой, определяет тип объекта, используя глубокие алгоритмы обучения локально или через облако. Устройство используется , например , в автономных автомобилях для обнаружения пешеходов, домашних животных, других автомобилей и так далее. Коти Накамура и его команда разработали программное обеспечение , основанное на нейронной сети GoogleNet, устройство работает на VideoCore IV GPU и процессоре Broadcom BCM283x, которые позволяют обнаруживать объекты примерно в 3 раза быстрее , чем при использовании четырех ядерного процессора A53 Cortex в RPi 3.

Они подключили аккумулятор, дисплей, и официальную Raspberry Pi камеру на плату Raspberry Pi, чтобы иметь возможность распознавать различные объекты и животных.

Первое демо с Raspberry Pi Zero.

https://twitter.com/9_ties/status/858300756092375040

И второе видео где Raspberry pi 3 использует более лучший дисплей

Эта разработка пока ещё не имеет открытого исходного кода. Но компания думает о выпуске открытой версии, которую можно будет найти на GitHub. Устройство может быть использовано для изучения систем распознавания объектов или в качестве отправной точки, и / или инструкции по установке Tensorflow на Raspberry Pi .

Если вы интересуетесь системами глубокого обучения, то есть хороший список ресурсов со ссылками на научно — исследовательские работы, каркасное программное обеспечение и приложения, учебники и т.д. … на Github — х .

Благодарим сайт cnx-software.com за предоставленную информацию.


Источник: www.cnx-software.ru

Комментарии: