Запутанность упрощает масштабирование в квантовом машинном обучении

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Область применения машинного обучения в квантовых вычислениях получила толчок на фоне нового исследования, устраняющего потенциальное препятствие для практической реализации квантовых нейронных сетей. Несмотря на имеющиеся представления теоретиков о том, что для обучения такой сети потребуется экспоненциально обширный датасет, квантовая теорема No-Free-Lunch (NFL), разработанная Лос-Аламосской национальной лабораторией, показывает, что квантовая запутанность устраняет эту экспоненциальную сверхнагрузку.

«Наша работа доказывает, что для квантового машинного обучения значимы как большие данные, так и большая запутанность. Более того, запутанность ведет к масштабируемости, избавляя нас от сложности в виде экспоненциального увеличения размера данных, необходимых для обучения». – говорит Эндрю Сорнборгер, компьютерный ученый лаборатории и соавтор работы, опубликованной 18 февраля в “Physical Review Letters”. – Эта теорема дает нам надежду, что квантовые нейронные сети идут по пути ускорения квантовых вычислений, в которых они в конечном итоге превзойдут свою нынешнюю альтернативу, работающую на привычных нам компьютерах».
Классическая теорема No-Free-Lunch утверждает, что любой алгоритм машинного обучения не хуже и не лучше любого другого, когда их эффективность усреднена по всем возможным функциям, связывающим данные с метками. Прямым следствием этой теоремы, демонстрирующим силу влияния данных в классическом машинном обучении, является то, что чем больше у нас есть данных, тем выше средняя эффективность. Таким образом, данные в МО являются своеобразной валютой, по сути, ограничивающей эффективность его алгоритмов.

Новая же теорема No-Free-Lunch, выведенная Лос-Аламосской лабораторией, показывает, что в квантовых условиях запутанность также выступает валютой, причем такой, которую можно обменять на данные, тем самым сократив потребность в них.

Используя квантовый компьютер Rigetti для проверки новой теоремы, команда реализовала запутанность квантового датасета с эталонной системой.
«Мы продемонстрировали на квантовом оборудовании, что определенно можем нарушить стандартную теорему No-Free-Lunch с помощью запутанности. При этом наша новая ее формулировка в ходе эксперимента была подтверждена». – сообщил Кунал Шарма, один из авторов статьи.
«Наша теорема предполагает, что запутанность, наряду с большими данными, должна рассматриваться как ценный ресурс для квантового машинного обучения. – говорит Патрик Коулс, физик из Лос-Аламосской лаборатории и ведущий автор статьи. – Классические же нейронные сети зависят только от больших данных».

Перевод новости: Entanglement unlocks scaling for quantum machine learning

Источник: habr.com

Комментарии: