Amazon анонсировала чип для машинного обучения Inferentia |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-11-29 15:40 Amazon Web Services на конференции re:Invent в Лас-Вегасе анонсировала новый чип Inferentia. Это собственная разработка компании, ориентированная на использование в машинном обучении. Потребность в ML-чипе Машинное обучение — интенсивно развивающаяся отрасль IT-индустрии. По заявлению аналитика компании Constellation Research Хольгера Мюллера (Holger Mueller), AWS несколько отстаёт от других игроков на этом поле, и Inferentia — хороший шаг, который позволит Amazon выработать собственный подход к этой теме. Эксперт считает, что скорость и стоимость машинного обучения являются вещами, которые могут привести к успеху или краху компанию, или, если говорить о военных действиях, целую страну. Ключом к получению преимущества в этой отрасли является качественная аппаратная часть. Google выпустила на рынок тензорные процессоры 2-3 года назад. AWS с помощью Inferentia попытается сократить разрыв. Возможности Inferentia Генеральный директор AWS Энди Джесси (Andy Jassy) заявил, что новый чип обладает высокой пропускной способностью и низкой задержкой, ориентирован на производительность и снижение финансовых затрат. В Inferentia интегрирована поддержка продуктов AWS EC2 и SageMaker, а также продемонстрированной на конференции re:Invent 2018 системы Elastic Inference Engine — сервиса, который позволяет пользователям подключать GPU-ускорение к любому экземпляру Amazon EC2 и снижает затраты на обучение на 75 процентов. Процессор может работать с такими распространёнными фреймворками, как INT8, FP16, TensorFlow, Caffe2 и ONNX. По словам генерального директора AWS, в свободной продаже чип появится не раньше следующего года. IT-компании активно работают над процессорами, ориентированными на машинное обучение. В середине лета 2018 года Google продемонстрировала сопроцессор Edge TPU для аппаратного ускорения обученных нейросетевых моделей в терминалах. Источник: tproger.ru Комментарии: |
|