Quanta magazine опять опубликовала научные итоги года по физике, которые снова написаны так ужасно, что я решил сделать свою версию

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Астрофизика

The Dark Energy Spectroscopic Instrument (DESI) - составляли карту распределения галактик, определяли их красное смещение. Увидели, пока не надежный, намек, что скорость ускорения расширения вселенной падает.

Детекторы для WIMP, частиц-кандидатов в темную материю, стали настолько чувствительными, что их ослепляет даже солнечные нейтрино. Есть мнение что с поисками WIMP надо завязывать и переключаться на другие варианты.

Нашли более убедительное доказательство темной материи.

Есть такое скопление галактик — Bullet Cluster, которое считалось одним из самых убедительных доказательств существования тёмной материи. В этом скоплении столкнулись два гигантских скопления галактик. Из-за столкновения горячий газ, который составляет основную часть обычной материи (барионной), остался в центре скопления, потому что газ взаимодействует между собой через трение и замедляется. В то же время галактики, состоящие в основном из звёзд и темной материи, почти не взаимодействуют друг с другом и просто пролетели дальше.

Наблюдения гравитационного линзирования показали, что большая часть массы скопления находится там, где расположены галактики, а не в центре с газом. Это важно, потому что обычная материя (газ) должна была бы "остановиться" и сосредоточиться в центре. Однако дополнительная масса (связанная с тёмной материей) не взаимодействует с газом и не тормозится, поэтому она продолжила движение вместе с галактиками.

Такое разделение между обычной материей (газом) и гравитационной массой можно объяснить только наличием тёмной материи, которая взаимодействует с обычной материей только гравитационно. Это все было открыто еще в 2006 году.

В этом году нашли скопление MACS J0018.5+1626, которое демонстрирует сходное явление, но с новыми и более точными данными. В этом скоплении также столкнулись два галактических скопления, и горячий газ "застрял" в центре, а галактики вместе с тёмной материей продолжили движение дальше. Но в этот раз скорости движения газа и темной материи померяли напрямую и скопления там столкнулись под другим углом, так что получилось все увидеть в 3D. Так что теперь, видимо MACS J0018.5+1626 самое убедительное доказательство существования темной материи.

Телескоп Джеймса Уэбба, открывал бананообразные галактики, маленькие красные точки (никто не знает, что это), скопления, похожие на виноградины, шокирующе большие молодые черные дыры, а ещё углубил the Hubble tension (ну когда постоянная Хаббла в разных наблюдениях, получается разной).

Конденсированные среды

В Инсбурке получили давно предсказанное (в 1957) состояние материи - supersolid. Астрофизики считают, что внутри пульсаров материя именно в таком состоянии.

Еще в 2d материалах открыли три новых вида сверхпроводимости.

Лидером в физической реализации кубитов для квантового компьютера были сверхпроводники, на них сделали много квантовых процессоров. Но в них время когерентности порядка миллисекунды и за это время нужно успеть проделать все квантовые вычисления. Одна из альтернатив этому - нейтральные атомы в оптических решетках, но на таких кубитах не умели делать коррекцию ошибок.

В Калтехе нейтральных 6100 атомах цезия удалось достичь время когерентности до 12.6 секунд. А в группа в Гарварде показала, что на таких кубитах работают методы исправления ошибок для некоторых простых алгоритмов, хотя для самых больших, с 48 логическими кубитами, они просто добились обнаружения ошибок. Надеются, что на ридберговской блокаде заработает более крутое исправление ошибок и тогда квантовые компьютеры с кубитами на нейтральных атомах заменят сверхпроводящие.

Далее Quanta Magazine упоминает некий прорыв в квантовых вычисления связанный с коррекцией ошибок. На самом деле в конце ноября и начале декабря 2024 были две крутые работы про это от разных команд. Обе эти работы про поверхностные коды (Surface codes) — это метод, при котором один логический кубит делается из множества физических кубитов для повышения устойчивости системы к ошибкам. И там есть такое понятие дистанция (distance) которое указывают на минимальное число физических кубитов, которые необходимо изменить, чтобы вызвать логическую ошибку. Чем больше дистанция, тем больше физических кубитов участвует в коде, что повышает его устойчивость к ошибкам. Например, код distance-2 означает, чтобы вызвать логическую ошибку, нужно изменить как минимум 2 физических кубита. Чем выше дистанция кода, тем больше физических кубитов нужно изменить, чтобы вызвать логическую ошибку, что делает систему более устойчивой. Это приводит к экспоненциальному снижению частоты ошибок, так как вероятность одновременного нарушения большего числа кубитов быстро уменьшается.

В ноябре появился препринт группы из Microsoft Azure Quantum и Atom Computing про квантовый компьютер из нейтральных атомов иттербия. В нем было 256 физических кубитов, где логические кубиты создавались с помощью кодов квантовой коррекции ошибок distance-2 и distance-3, включая код Бэкона-Шора. Эти методы позволили эффективно исправлять ошибки и потери кубитов, а вычисления с 24 логическими кубитами показали значительное улучшение точности по сравнению с физическими кубитами. Эксперименты подтвердили, что даже простые коды коррекции ошибок могут дать значительные улучшения, а значит на нейтральных атомах можно делать устойчивые квантовые алгоритмы.

А в начале декабря команда Google Quantum AI представила в Nature достижения в области коррекции ошибок на процессоре Willow, который работает на сверхпроводниках. Они реализовали distance-5 (49 физических кубитов) и distance-7 (97 физических кубитов) и показали, что переход к более сложным кодам позволяет экспоненциально снижать частоту ошибок логического кубита. Экспериментально было доказано, что увеличение дистанции кода с 5 до 7 уменьшает частоту ошибок вдвое, что подтверждает теоретические прогнозы о масштабируемости систем.

Обе эти статьи показали важность коррекции ошибок в создании масштабируемых квантовых вычислений, но исследование Google (сверхпроводники) больше про сложные логические коды с высокой степенью точности, тогда как проект Microsoft (нейтральные атомы) подчеркивает, что устойчивые вычисления работают даже с более простыми кодами в другой физической реализации квантового компа.

Команда из JILA (США) под руководством Jun Ye впервые точно измерила ядерный переход в ядре изотопа торий-229, что открывает путь к созданию ядерных часов для проверки дрейфа фундаментальных констант. Есть потенциал порвать по точности обычные атомные часы, потому что ядро тория-229 экранировано электронами, поэтому они невосприимчивы к фоновым помехам.

Теория

В конце итогов упоминается теоретическое достижение.

В 2013 году Nima Arkani-Hamed и Jaroslav Trnka открыли Amplituhedron, который значительно упрощает расчёт амплитуд рассеяния частиц в некоторых суперсимметричных квантовых теориях поля.

В 2022 Carolina Figueiredo обнаружила связь между тремя, на первый взгляд, несвязанными квантовыми теориями, что указало на существование там скрытой геометрии. Это вдохновило на развитие нового метода, называемого Surfaceology. В 2024м показали, что Surfaceology, в отличие от Amplituhedron, не требует суперсимметрии, а потому можно вычислять амплитуды рассеяния уже реальных частиц гораздо быстрее и проще, заменяя тысячи сложных диаграмм Фейнмана.


Источник: www.quantamagazine.org

Комментарии: