Самый быстрый суперкомпьютер в мире побил рекорд ИИ |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-02-19 23:18 Суперкомпьютер Summit, разработанный компанией IBM для Окриджской Национальной лаборатории, в 2018-м стал самым мощным в мире, забрав этот титул у китайцев впервые за пять лет Последствия эксперимента Summit отразятся на будущем как ИИ, так и климатологии. Проект демонстрирует научный потенциал возможностей применения ГО к суперкомпьютерам, которые традиционно занимались симуляцией физических и химических процессов, таких, как ядерные взрывы, чёрные дыры или новые материалы. Он также демонстрирует, что увеличение вычислительной мощности – если его получить – даёт преимущества для МО – и это служит хорошим предзнаменованием для будущих прорывов. «Пока мы не сделали этот проект, мы не знали, что его можно так сильно масштабировать», — говорит Раджат Монга, инженерный директор в Google. Он и другие гугловцы помогали проекту, адаптировав TensorFlow, ПО для МО, к огромным масштабам Summit. Большая часть работы по масштабированию ГО проходила в дата-центрах интернет-компаний, где сервера совместно работают над задачами, разбивая их на части, благодаря тому, что они объединены относительно свободно, и не связаны в один гигантский компьютер. У суперкомпьютеров типа Summit архитектура выглядит по-другому, у них особенные высокоскоростные соединения объединяют тысячи процессоров в единую систему, способную работать как одно целое. До недавнего времени мало кто пытался адаптировать МО для работы на подобном железе. Монга говорит, что работа над адаптацией TensorFlow к масштабам Summit оживит попытки Google расширить собственные ИИ-системы. Инженеры из Nvidia также помогали в этом проекте, обеспечивая беспроблемную совместную работу десятков тысяч графических процессоров Nvidia. То, что для обеспечения ГО-алгоритмов всё большей вычислительной мощностью находятся способы, сыграло свою роль в активном развитии технологии, идущем в последнее время. Технология, которую использует Siri для распознавания вашего голоса, а робомобили Waymo для распознавания дорожных знаков, стала полезной в 2012 году, после того, как исследователи адаптировали её для работы на графических процессорах Nvidia. В аналитической статье, опубликованной в прошлом мае, исследователи из OpenAI, исследовательского института из Сан-Франциско, одним из инвесторов которого был Илон Маск, подсчитали, что количество вычислительных ресурсов в крупнейших проектах, связанных с МО, о которых известно обществу, с 2012 года удваивается примерно каждые 3,43 месяца – или растёт в 11 раз ежегодно. Такой прогресс помог ботам из Alphabet, родительской компании Google, победить чемпионов сложных настольных игр и видеоигр, и помог сделать большой рывок в точности переводов сервиса Google. Теперь Google и другие компании создают новые виды чипов, приспособленных специально для ИИ, чтобы продолжить эту тенденцию. В Google говорят, что их «стручки», плотно интегрирующие по 1000 их чипов для ИИ – они называют их тензорными процессорами, или TPU – могут выдавать 100 петафлопс вычислительной мощности, что в 10 раз [видимо, реально в два раза / прим. перев.] меньше, чем Summit достиг в своём эксперименте с ИИ. Вклад проекта Summit в климатологию состоит в демонстрации того, как ИИ огромных масштабов могут улучшить наше понимание будущих погодных закономерностей. Когда исследователи выдают предсказания климата на сто лет вперёд, то прочесть его становится довольно сложно. «Представьте себе, что у вас есть ролик на YouTube, длящийся 100 лет. Вручную вы никак не сможете найти там всех кошек и собак», — говорит Прабхат. ПО, которое обычно используется для автоматизации процессов, по его словам, несовершенно. Результаты Summit показали, что МО может справиться с этим лучше, и это должно помочь предсказывать такие последствия штормов, как наводнения и разрушения. Результаты Summit принесли исследователям из Окриджа и Nvidia премию Гордона Белла за передовую работу в области суперкомпьютеров. Запуск ГО на суперкомпьютерах – это новая идея, пришедшая как раз в нужный момент для климатологов, говорит Майкл Причард, профессор из калифорнийского университета в Ирвине. Замедляющаяся скорость улучшений обычных процессоров заставила инженеров перейти к наполнению суперкомпьютеров всё большим количеством графических чипов, где быстродействие растёт надёжнее. «Пришло время, когда уже нельзя было наращивать вычислительную мощность обычным способом», — говорит Причард. Эти изменения представляют собой препятствия на пути обычных симуляций, которые приходится адаптировать. Также они дают возможность обратиться ко всей мощи ГО, которая естественным образом подходит к графическим чипам. Это может дать нам более ясное представление о будущем нашего климата. Группа Причарда в прошлом году продемонстрировала, что ГО может выдавать более реалистичные симуляции облаков в прогнозах климата, что может улучшить прогнозы изменения в закономерностях выпадения осадков. Источник: habr.com Комментарии: |
|