Блок Google TPU второго поколения в задачах машинного обучения демонстрирует производительность выше, чем у GPU Nvidia GV100

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2017-05-19 11:45

ИТ-гиганты

Блок Google TPU второго поколения в задачах машинного обучения демонстрирует производительность выше, чем у GPU Nvidia GV100

Год назад Google рассказала, что у неё есть специализированное аппаратное решение для машинного обучения собственной разработки. Устройство назвали Tensor Processing Unit (TPU). На момент «анонса» Google уже около года использовала TPU в своих центрах обработки данных.

Спустя год поисковый гигант рассказал о TPU второго поколения. И если в прошлый раз нам не раскрыли каких-то подробностей, то теперь известно, что производительность новой системы в задачах машинного обучения достигает 180 TFLOPS! Для сравнения, монструозный GPU GV100 поколения Volta в таких задачах демонстрирует «лишь» 120 TFLOPS. Однако, судя по всему, речь о платформе, содержащей четыре ASIC. При этом Google использует специальные модули TPU, каждый из которых содержит 64 устройства. В общей сложности это даёт производительность на уровне 11,5 PFLOPS.

Благодаря этому, время, необходимо на обучение некоторых систем искусственного интеллекта, сокращается от нескольких недель, до дней или даже часов.

Параллельно с рассказом о новом поколении TPU, Google отметила, что запускает инициативу TensorFlow Research Cloud, в рамках которой ведущим исследовательским институтам и учёным дадут бесплатный доступ к системам на основе TPU второго поколения. Правда, в обмен на доступ к исследованиям и разрешение на использование данных, полученных в рамках этих исследований.

Комментарии: