Компания Facebook будет производить графические серверы на основе открытого лицензирования (open source GPU server) для машинного обучения |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-05-02 16:01 Компания Facebook будет производить графические серверы на основе открытого лицензирования (open source GPU server) для машинного обучения. В модели Big Sur будет восемь графических ускорителей Nvidia Tesla M40 с потребляемой мощностью до 300 Вт каждый (именно поэтому на заглавном фото видны толстые черные жгуты), а сама система станет первой с графическими картами премиум-класса (high-end) для нейронных сетей глубокой обработки данных. Обычно, в любом компьютере есть центральный процессор (ЦП или CPU) и дополнительный графический (со)процессор GPU (graphics processing unit). Если центральный процессор отвечает за выполнение вычислительных операций, причем основными из них являются сложение и сдвиг (вычитание – это сложение с дополнительным кодом, умножение – сложение с многократным сдвигом и т.д.), то графический процессор нацелен на обработку изображений, точнее на подготовку изображений к отображению (рендеринг). Поэтому за счет специализированной конвейерной архитектуры GPU намного эффективнее в обработке графической информации, чем типовой центральный процессор. Причем оказалось, что во многих областях глубокого анализа в нейронных сетях арифметическое сложение не требуется вовсе вместе с типовым центральным процессором, а всю работу можно поручить графическому процессору, который становится центральным. Более года назад к такому выводу независимо друг от друга пришли компании Baidu и Microsoft, в недрах которых как раз и зародилась идея об использовании графических серверов для задач поиска в базе изображений. В феврале этого года Microsoft и Google анонсировали прорыв в области распознавания образов на основе глубоких нейронных сетей (deep neural network) – мы писали об этом по поводу идентификации эмоций на лицах людей. А сейчас Facebook готовит многосерверную систему Big Sur из показанных на заглавном рисунке стоечных серверов и специальных коммутаторов (свичей) на 100 Гбит/с. Технических подробностей о Big Sur пока нет, равно как и плановой даты запуска системы, хотя заявлен проект открытых вычислений Open Compute Project, в котором есть требования к техническим характеристикам стойки Open Rack и совместимости нескольких версий топологии шины PCI-e. Компания Facebook собирается на серверах с графическими процессорами (и картами) Nvidia заняться искусственным интеллектом, причем выбор Nvidia Tesla M40 на основе Tesla Accelerated Computing Platform обусловлен поддержкой спецификации интерфейса OpenCL, который показался компании Facebook наиболее перспективным. В публикациях самой Facebook сообщается о специальном оборудовании для тренировки систем AI (artificial intelligence, искусственный интеллект) и ML (machine learning, машинное обучение). Комментарии: |
|