Более эффективное машинное обучение может перевернуть парадигму ИИ

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Приближаются небольшие алгоритмы, которые не нуждаются в горах данных для обучения.

В январе компания Google запустила новый сервис под названием облако AutoML, который может автоматизировать некоторые сложные аспекты проектирования машинного обучения программного обеспечения. Во время работы над этим проектом исследователям компании иногда требовалось запустить до 800 графических чипов в унисон, чтобы обучить их мощным алгоритмам.

В отличие от людей, которые могут распознать кофейные чашки, увидев один или два примера, сети AI, основанные на смоделированных нейронах, должны видеть десятки тысяч примеров для идентификации объекта. Представьте себе, пытаясь научиться распознавать каждый элемент в вашей среде таким образом, и вы начинаете понимать, почему программное обеспечение AI требует так много вычислительной мощности.   

Если исследователи могли проектировать нейронные сети, которые могут быть обучены, чтобы выполнять определенные задачи, используя только несколько примеров, было бы “перевернуть всю парадигму”, Чарльз Берган, вице-президент по разработкам компании Qualcomm, рассказал собравшимся в МТИ Технология обзора EmTech Китай-конференции в начале этой недели.

Если нейронные сети станут способными к "однократному обучению", сказал Берган, громоздкий процесс подачи паутины данных в алгоритмы для их обучения был бы устаревшим. Это может иметь серьезные последствия для индустрии аппаратного обеспечения, поскольку как существующие технологические гиганты, так и стартапы в настоящее время сосредоточены на разработке более мощных процессоров, предназначенных для запуска современных алгоритмов обработки данных.

Это также означало бы значительно более эффективное машинное обучение. В то время как нейронные сети, которые могут быть обучены с использованием небольших наборов данных, еще не являются реальностью, уже проводятся исследования по уменьшению алгоритмов без потери точности, сказал Билл Далли, главный научный сотрудник Nvidia, на конференции.

Исследователи Nvidia используют процесс, называемый сетевой обрезкой, чтобы сделать нейронную сеть меньше и эффективнее работать, удаляя нейроны, которые не вносят непосредственного вклада в вывод. ” Есть способы обучения, которые могут уменьшить сложность обучения на огромные суммы", - сказала Далли.


Источник: www.technologyreview.com

Комментарии: