Fujitsu разработала ускоряющую глубинное обучение технологию |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2016-08-21 11:40 Компания Fujitsu анонсировала технологию, ускоряющую вычислительные процессы глубинного обучения за счёт использования нескольких графических чипов. Глубинное обучение - это разновидность машинного обучения, в основе которой лежат нейронные сети. На базе этой технологии среди прочего строятся системы распознавания речи и визуальных объектов, а также взаимодействие компьютерных систем с естественным языком и вычленение смыслов. Традиционным способом ускорить глубинное обучение является использование множества компьютеров, оснащённых несколькими GPU, объединённых в одну сеть и настроенных на параллельную работу. Недостаток такого метода заключается в трудностях распараллеливания по мере увеличения числа ПК (обычно проблемы возникают при работе от 10 систем), поскольку возрастает время, необходимое для обмена данными между компьютерами. В подразделении Fujitsu Laboratories переработали технологию распараллеливания и связали её с открытой платформой для глубинного обучения Caffe. В результате было создано программное обеспечение, которое как утверждают разработчики, способно обеспечивать многократное превосходство в скорости выполнения рабочих нагрузок, связанных с глубинным обучением, при использовании нескольких GPU по сравнению с одним. К примеру, в случае с 16 и 64 графическим процессорами преимущество составило 14,7 и 27 раз соответственно. В Fujitsu Laboratories подчёркивают, что речь идёт о самых высоких вычислительных скоростях. Выпустить на рынок коммерческий продукт, готовый к установке в суперкомпьютеры, планируется до конца 2016 года. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|