Новый метод позволяет внедрять ИИ в бытовые приборы |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-11-18 20:22 Исследователи из Университета Юты в США представили модель, которая внедряет искусственный интеллект (ИИ) в любое устройство. Для этого не нужны сложные вычисления. Новая модель позволит исследователям внедрять искусственный интеллект в бытовые приборы, которые работают с помощью встроенных технологий для взаимодействия друг с другом или с внешней средой («интернет вещей»). По предварительным данным, приборы повышают безопасность данных и их энергоэффективность. Система MCUNet проектирует компактные нейронные сети, которые, несмотря на ограниченную память и вычислительную мощность, обеспечивают высокую скорость и точность для глубокого обучения устройств «интернета вещей». С помощью MCUNet ученые кодирует два компонента, необходимых для «крошечного глубокого обучения» — работу нейронных сетей на микроконтроллерах. Одним из компонентов является TinyEngine, движок, который работает с ресурсами, он напоминает простейшую операционную систему. TinyEngine оптимизирован для работы с определенной нейросетевой структурой. Существующие методы поиска нейронной архитектуры для предметов начинаются с большого пула возможных сетевых структур, основанных на заранее заданном шаблоне. Затем исследователи постепенно находят тот, который отличается высокой точностью и низкой стоимостью. Несмотря на то, что методы работают, они не самые эффективные для крошечных устройств. «У нас есть множество микроконтроллеров с разной мощностью и разным объемом памяти, — объясняют исследователи. — Поэтому мы разработали алгоритм [TinyNAS] для оптимизации пространства поиска для различных микроконтроллеров». Настраиваемый характер TinyNAS означает, что он может генерировать компактные нейронные сети с наилучшей производительностью для конкретного микроконтроллера, причем для этого даже не нужны настройки лишних параметров. Источник: hightech.fm Комментарии: |
|