Запутанность упрощает масштабирование в квантовом машинном обучении |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-02-25 22:13 Область применения машинного обучения в квантовых вычислениях получила толчок на фоне нового исследования, устраняющего потенциальное препятствие для практической реализации квантовых нейронных сетей. Несмотря на имеющиеся представления теоретиков о том, что для обучения такой сети потребуется экспоненциально обширный датасет, квантовая теорема No-Free-Lunch (NFL), разработанная Лос-Аламосской национальной лабораторией, показывает, что квантовая запутанность устраняет эту экспоненциальную сверхнагрузку. «Наша работа доказывает, что для квантового машинного обучения значимы как большие данные, так и большая запутанность. Более того, запутанность ведет к масштабируемости, избавляя нас от сложности в виде экспоненциального увеличения размера данных, необходимых для обучения». – говорит Эндрю Сорнборгер, компьютерный ученый лаборатории и соавтор работы, опубликованной 18 февраля в “Physical Review Letters”. – Эта теорема дает нам надежду, что квантовые нейронные сети идут по пути ускорения квантовых вычислений, в которых они в конечном итоге превзойдут свою нынешнюю альтернативу, работающую на привычных нам компьютерах».Классическая теорема No-Free-Lunch утверждает, что любой алгоритм машинного обучения не хуже и не лучше любого другого, когда их эффективность усреднена по всем возможным функциям, связывающим данные с метками. Прямым следствием этой теоремы, демонстрирующим силу влияния данных в классическом машинном обучении, является то, что чем больше у нас есть данных, тем выше средняя эффективность. Таким образом, данные в МО являются своеобразной валютой, по сути, ограничивающей эффективность его алгоритмов. Новая же теорема No-Free-Lunch, выведенная Лос-Аламосской лабораторией, показывает, что в квантовых условиях запутанность также выступает валютой, причем такой, которую можно обменять на данные, тем самым сократив потребность в них. Используя квантовый компьютер Rigetti для проверки новой теоремы, команда реализовала запутанность квантового датасета с эталонной системой. «Мы продемонстрировали на квантовом оборудовании, что определенно можем нарушить стандартную теорему No-Free-Lunch с помощью запутанности. При этом наша новая ее формулировка в ходе эксперимента была подтверждена». – сообщил Кунал Шарма, один из авторов статьи. «Наша теорема предполагает, что запутанность, наряду с большими данными, должна рассматриваться как ценный ресурс для квантового машинного обучения. – говорит Патрик Коулс, физик из Лос-Аламосской лаборатории и ведущий автор статьи. – Классические же нейронные сети зависят только от больших данных». Перевод новости: Entanglement unlocks scaling for quantum machine learning Источник: habr.com Комментарии: |
|