В общем, я досмотрел презентацию Nvidia

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В общем, я досмотрел презентацию Nvidia. Там было несколько интересных моментов, но самое главное - это все-таки фокус на искусственном интеллекте.

Дженсен сказал, что современные дата-центры ограничены как правило питанием, которое может быть выделено на сумму всех установленных в них серверах, и Nvidia считают, что решение на базе GH200 (процессор Grace + графика Hopper) дает в два (2) раза большую энергоэффективнось в сравнении с серверами x86. А значит, совсем скоро дата-центры должны будут "выкинуть" свое старое x86-железо и перейти на новое, заточенное под ускорение AI (конечно же от Nvidia).

Кажется, именно поэтому финансовый директор Nvidia Колетт Кресс недавно высказалась, что искусственный интеллект по ее планам заработает для зеленых 11 миллиардов долларов всего за 3 следующих месяца (на 64% больше, чем за аналогичный период прошлого года) - возможно, контракты на поставки новых серверов на Hopper Grace уже подписаны.

Секретов эффективности данного решения два.

Во-первых, речь не об одном сервере или одной плате, а о совокупности - при работе над одной задачей. У Nvidia своя быстрая шина Nvlink, свои собственные свичи оптической коммутации, а вся память во всем массиве Grace Hopper общая, то есть даже если у вас 256 суперчипов GC200 со 144 Тб общей памяти, то каждый CPU и каждый GPU в системе будет видеть весь объем памяти и сможет получить доступ к ней ко всей с общей производительностью в 1 экзафлоп.

Во-вторых, в каждом GH200 Nvidia использует 72-ядерный CPU Grace на базе Arm Neoverse V2, GPU класса H100, а также 96 Гбайт HBM3 и 512 Гбайт энергоэффективной LPDDR5X-памяти. При этом память специально настроена для круглосуточной работы в дата-центрах, по словам Дженсена. По всей видимости, это позволило значительно снизить общие расходы энергии на память в сравнении с классической серверной памятью.

В итоге мы имеем высокоинтегрированное решение с огромной процессорной и графической производительностью и колоссальным объемом общей высокоэнергоэффективной памяти. И все это заточено под обучение AI, конечно же.

Ждем, когда пройдет несколько лет, и Дженсен объявит со сцены, что время таких решений как GH200 тоже уже прошло и данные серверы пора выкидывать, чтобы купить какое-нибудь Nvidia GX500, которое будет в разы эффективнее в дата-центре не в виде одного сервера, а виде всей суммы серверных стоек, связанных одной шиной, скованных одной задачей.

И.К.


Источник: vk.com

Комментарии: