Компания Facebook будет производить графические серверы на основе открытого лицензирования (open source GPU server) для машинного обучения

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Компания Facebook будет производить графические серверы на основе открытого лицензирования (open source GPU server) для машинного обучения. В модели Big Sur будет восемь графических ускорителей Nvidia Tesla M40 с потребляемой мощностью до 300 Вт каждый (именно поэтому на заглавном фото видны толстые черные жгуты), а сама система станет первой с графическими картами премиум-класса (high-end) для нейронных сетей глубокой обработки данных.

Обычно, в любом компьютере есть центральный процессор (ЦП или CPU) и дополнительный графический (со)процессор GPU (graphics processing unit). Если центральный процессор отвечает за выполнение вычислительных операций, причем основными из них являются сложение и сдвиг (вычитание – это сложение с дополнительным кодом, умножение – сложение с многократным сдвигом и т.д.), то графический процессор нацелен на обработку изображений, точнее на подготовку изображений к отображению (рендеринг). Поэтому за счет специализированной конвейерной архитектуры GPU намного эффективнее в обработке графической информации, чем типовой центральный процессор.

Причем оказалось, что во многих областях глубокого анализа в нейронных сетях арифметическое сложение не требуется вовсе вместе с типовым центральным процессором, а всю работу можно поручить графическому процессору, который становится центральным. Более года назад к такому выводу независимо друг от друга пришли компании Baidu и Microsoft, в недрах которых как раз и зародилась идея об использовании графических серверов для задач поиска в базе изображений. В феврале этого года Microsoft и Google анонсировали прорыв в области распознавания образов на основе глубоких нейронных сетей (deep neural network) – мы писали об этом по поводу идентификации эмоций на лицах людей. А сейчас Facebook готовит многосерверную систему Big Sur из показанных на заглавном рисунке стоечных серверов и специальных коммутаторов (свичей) на 100 Гбит/с.

Технических подробностей о Big Sur пока нет, равно как и плановой даты запуска системы, хотя заявлен проект открытых вычислений Open Compute Project, в котором есть требования к техническим характеристикам стойки Open Rack и совместимости нескольких версий топологии шины PCI-e.

Компания Facebook собирается на серверах с графическими процессорами (и картами) Nvidia заняться искусственным интеллектом, причем выбор Nvidia Tesla M40 на основе Tesla Accelerated Computing Platform обусловлен поддержкой спецификации интерфейса OpenCL, который показался компании Facebook наиболее перспективным.

В публикациях самой Facebook сообщается о специальном оборудовании для тренировки систем AI (artificial intelligence, искусственный интеллект) и ML (machine learning, машинное обучение).

Комментарии: