Российские учёные научили квантовые компьютеры и ИИ предсказывать будущее

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Наши физики и data-science(те, кто создает ИИ и занимаются сложными вычислениями) специалистами из МФТИ и Сколтеха смогли создать и запустить квантовую(рекуррентную)нейросеть для предсказания числовых последовательностей. Это как прогнозирование погоды или температуры, только на квантовом уровне. Задача на первый взгляд кажется простой: нужно предсказать следующее значение в последовательности чисел, которые изменяются со временем. Это похоже на прогнозирование погоды, нагрузки в электросети, температуры и других "сигналов" в физике, биологии и экономике.

Однако за этой кажущейся простотой скрывается ключевая проблема современной обработки данных. Классические ИИ научились выявлять скрытые закономерности, но вопрос о том, могут ли квантовые процессоры предложить практические решения для таких задач, остаётся открытым.

В сверхпроводниковом квантовом компьютере информация хранится в состояниях искусственных атомов, представляющих собой электрический контур — это замкнутый путь, который проходит по нескольким ветвям электрической цепи из сверхпроводящего материала с джозефсоновскими переходами — явление протекания сверхпроводящего электрического тока через тонкий слой диэлектрика, разделяющий два сверхпроводника. Эти атомы создаются на кремниевой подложке. Информация может быть искажена из-за окружающей среды, несовершенства управляющих импульсов и ошибок считывания. Поэтому важно найти баланс: сделать схему достаточно сложной и достаточно простой, чтобы квантовые состояния не терялись до извлечения информации.

Для квантового аналога рекуррентной сети исследователи выбрали архитектуру QRNN (по нашему: КРНС, проще говоря, Квантовая рекуррентная нейронная сеть).

Принцип работы похож на классический: нейросети получают фрагменты временного ряда и предсказывает следующий элемент на его основе. Но "запоминание" и "переваривание" информации происходят иначе и ближе к человеческому мозгу. Вместо привычных матриц весов и нелинейностей используются параметризованные квантовые схемы, состоящие из цепочек квантовых операций с обучаемыми параметрами. Результаты опубликованы на сайте JETP Letters.

Специалисты хотели понять, насколько хорошо квантовый компьютер с нейронной сетью (КРНС) может работать на реальном сверхпроводящем чипе. Они хотели узнать, какие настройки делают предсказания лучше и когда усложнение схемы перестает помогать. Для этого они создали целую цепочку: от подготовки данных на обычном компьютере до обучения на квантовом.

Сначала данные подгоняли под удобный для квантовых компьютеров диапазон от -1 до 1. Затем из них вырезали кусочки: фрагмент из T точек и следующий элемент, который нужно было предсказать. Вводить длинный временной ряд в квантовый процессор сложно и не нужно, потому что ошибки накапливаются с увеличением шагов. Поэтому они использовали метод свёртки: из длинного ряда длиной делали короткую последовательность, которую потом подавали на квантовый компьютер.

Квантовая часть состояла из повторяющихся этапов операций. Половина кубитов использовалась для записи входных данных, а другая половина сохраняла информацию о прошлых входах через запутывание.

Данные кодировались путем многократного вращения кубита — один из процессов изменения состояния кубита (базовая единица информации в квантовых вычислениях), позволяющий выполнять различные операции, необходимые для реализации квантовых алгоритмов. Угол изменения наклона кубита зависел от входящего числа и используемых уравнений. Затем происходили однократные (однокубитные) вращения, изменяющие внутреннее состояние системы, и запутывание через серию двухкубитных операций.

Ключевым приемом стало повторное введение данных в схему, что позволило создавать и использовать более сложные данные без увеличения числа кубитов. Это существенно снизило ошибку предсказаний, иногда в десятки раз. Для обучения своего "слабого" ИИ на основе метода КРНС использовался среднеквадратичный критерий ошибки и оптимизация по градиенту.

Перед экспериментом на чипе модель тщательно исследовалась в симуляторе, где подбирались ключевые гиперпараметры: число кубитов, длина входящих квантовых данных параметры, их оптимизация и число повторных загрузок.

Результаты симуляции показали, что увеличение числа кубитов улучшают обучение, но после шести кубитов наступает т.н "насыщение" и усложнение схемы становится дорогостоящим. При слишком маленьком количестве кубитов ИИ не мог предсказывать динамику, а при слишком большом время выполнения увеличивалось, но качество обучения не улучшалось. Оптимальными оказались параметры: четыре кубита(2 прогоняют многократно, а 2 — однократно) и десять "вращений" двух повторных кубитов.

Сергей Самарин из МФТИ отметил, что в эпоху"шумных" квантовых процессоров(современные квантовые компьютеры работают неустойчиво из-за внешних помех, переключающих квантовые параметры когда и как вздумается — одна из причин пока и нет квантовых компьютеров в массе) важно балансировать между глубиной квантования алгоритма и соотношением кубитов. Олег Астафьев добавил, что оптимизация и многократная перезагрузка данных повышают эффективность обучения квантовых машин.

Исследование объединило три сложных элемента: рекуррентную обработку временных рядов, квантовые схемы и реальные ограничения. Методика сочетания классической свертки и квантовой обработки сократила глубину квантовой части и помогла бороться с декогеренцией.

Перспективы включают ускорение обучения за счет сокращения времени релаксации системы, расширение выходного пространства модели и поиск оптимальных схем кодирования данных для сверхпроводниковых платформ. Исследование также внесло вклад в понимание обучения квантовых схем.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: