Google ускорила разработку чипов с месяцев до шести часов с помощью ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи из Google Research использовали обучение с подкреплением для ускорения создания чипов с нескольких месяцев до шести часов. По их словам, искусственный интеллект не уступает опытным инженерам.

Для достижения такого результата исследователи превратили проектирование чипа в игру. Компоненты процессора выступили в роли фишек, а холст, на котором они расположены, обозначили как игральную доску.

Производительность чипа оценивали с помощью показателей, основанных на базовых наборах данных о размещении 10 000 фишек. В «игре» побеждала та модель, которая показала максимальную эффективность, рассказали в Google.

Инженеры обнаружили, что за шесть часов алгоритмы разработали чипы, которые не уступали, а иногда и превосходили образцы, спроектированные людьми в течение нескольких месяцев.

«Наш метод позволяет создавать технологические планы изготовления микросхем менее чем за шесть часов, по сравнению с самым надежным исходным уровнем, который требует месяцев интенсивных усилий со стороны экспертов-людей», — говорится в исследовании.

Разработчики подчеркнули, что их подход не только экономит время, но и улучшает качество разработок.

Они добавили, что уже применили метод при проектировании тензорного процессора TPUv4, представленного в мае 2021 года.

Впервые Google сообщила, что экспериментирует с искусственным интеллектом для разработки чипов в 2020 году.

Напомним, в мае ученые представили суперкомпьютер Perlmutter для искусственного интеллекта, который поможет построить самую большую в истории 3D-карту видимой Вселенной.

В начале мая года исследователи разработали ИИ, который моделирует Вселенную на одном графическом процессоре в 1000 раз быстрее существующих методов.

В апреле ученые представили механизм глубокого обучения, который работает на центральном процессоре и тренирует нейронные сети в 15 раз быстрее, чем на платформах с видеоускорителями.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER


Источник: forklog.com

Комментарии: