Квантовые состояния удалось закодировать в искусственных нейронных сетях |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-05-17 20:20 Теория хаоса, машинное обучение новости, новости нейронных сетей, квантовые компьютеры новости Машинное обучение может придать компьютерам человеческие способности: интерпретировать концепции с помощью опыта. Будучи одной из самых быстрорастущих сегодня отраслей, она играет центральную роль в формировании искусственного интеллекта и способна революционизировать современные компьютерные программы, которые занимаются распознаванием лиц, переводом языком или управлением автомобиля. В последнее время методы машинного обучения используются для решения нескольких вопросов о поведении системы взаимодействующих квантовых частиц. Успех решения этих вопросов зависит от лежащих в основе структур данных квантовых состояний, закодированных в искусственных нейронных сетях. Исследователи в данной работе исследовали структуры данных квантовых состояний нейронной сети, изучая их свойства запутанности с акцентом на модель машинного обучения, известную как архитектура Больцмана — стохастическая искусственная нейронная сеть (RBM). В данной работе рассматривались состояния RBM с короткими и длинными запутанными диапазонами. Для случая с короткими диапазонами соответствующие квантовые состояния имеют запутанность по площади, не зависящую от пространственной размерности. Для случая с длинными диапазонами было обнаружено, что модель RBM может эффективно описать распределение запутанных пар в объеме. С помощью машинного обучения с учителем, модель RBM можно использовать для решения сложной задачи вычисления гамильтониана основного состояния с дальнодействующим взаимодействием. Результаты показали некоторые важные свойства структур данных квантовых состояний нейронной сети. Например, что спектр запутанности частиц не имеет универсальной части, связанной с теорией случайных матриц и имеет пуассоновское распределение. Ученые надеяться, что полученные результаты будут способствовать дальнейшему прогрессу в области машинного обучения для изучения квантовых фаз веществ. Пояснения к изображениям: На изображении 67_1, FIG. 1, показана двумерное распределение квантовых состояний искусственной нейронной сети модели RBM. Желтые шарики обозначают нейроны на видимом слое, а зеленые кубики обозначают нейроны на скрытом слое. Они соответствуют физическим (вспомогательным) спинам. Линии коричневого цвета показывают связи между видимыми и скрытыми нейронами, с весовым коэффициентом W_rr' (для лучшей визуализации показана только небольшая часть связей). Здесь также показано типичное разделение системы на две подсистемы А и В, для лучшего представления свойства запутанных состояний искусственной нейронной сети. На изображении 67_2, FIG. 2, показано распределение областей запутывания для площади в модели RBM. Система разделена на две подсистемы: А и B, причем красная линия указывает на границу раздела. Энтропия Реньи задает распределение для любого значения alpha для подсистем А (B), области которых делятся на три части: A1, A2, A3 (B1, B2, B3). Энтропия приведенной матрицы плотности ro_A зависит только от степени свободы в области A2 ? A3, которая пропорциональна площади поверхности области А. Это дает четкую геометрическую картину того, почему S_alpha^A ограничена сверху площадью поверхности А, вплоть до несущественной константы масштабирования (см. статью 67 уравнение (2)). Остальные иллюстрации см. в статье 67. Оригинал статьи прикреплен к записи. Источник: journals.aps.org Комментарии: |
|