Анализ больших данных в физике элементарных частиц — Денис Деркач

МЕНЮ


Искусственный интеллект. Новости
Поиск

ТЕМЫ


Внедрение ИИНовости ИИРобототехника, БПЛАПсихологияТрансгуманизмЛингвистика, обработка текстаБиология, теория эволюцииВиртулаьная и дополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

RSS


RSS новости

Авторизация



Новостная лента форума ailab.ru

Физик Денис Деркач о фотографиях, нейронных сетях и машинном обучении в обработке данных экспериментов Большого адронного коллайдера

В разных газетах и журналах мы часто видим утверждения, что искусственный интеллект по мере развития будет вытеснять людей из их профессий. И фактически целые отрасли, целые профессии будут не нужны в будущем. Примерно четыре года назад вышла статья, которая оценивала вероятность автоматизации той или иной профессии, и получилось, что одни ученые оценили, что другие ученые будут не нужны. То есть некоторые профессии в научном мире через несколько лет, несколько десятков лет, возможно, будут автоматизированы на 50–60%, а может быть, и на 70%.

К таким наукам относится физика частиц. Основной эксперимент физики частиц проходит сейчас на Большом адронном коллайдере на границе Швейцарии и Франции в Европейском центре ядерных исследований. Оказывается, искусственный интеллект в физику частиц пришел очень давно. Но давайте начнем еще раньше. Как происходил эксперимент примерно 300–400 лет назад? У вас был какой-то карандаш, у вас была бумажка, на которую вы записывали результаты эксперимента. У вас была, возможно, линейка. А может быть, если вы достаточно богаты, у вас был какой-то хронограф или что-то подобное. И вы делали серию экспериментов, записывали это все на бумагу, после чего выпускали статью или рассылали письма коллегам в зависимости от организации науки в вашей стране в то время.

По большому счету физика частиц еще 70–100 лет назад выглядела точно так же. Единственное отличие заключалось в том, что вместо линейки мы брали несколько более сложные вещи, какой-то небольшой ускоритель или что-то еще. Изначально все, что происходило в физике частиц, записывалось на бумаге и потом каким-то образом анализировалось в виде таблицы. Большим прорывом оказалось использование в физике частиц фотокамеры, которая смогла фотографировать след от пролетевшей мимо частицы. Примером такого устройства являются пузырьковые камеры — это фактически перегретая жидкость, в которой могут оставлять следы пролетающей мимо частицы. То есть представьте себе, что у вас есть кипящая вода, вы туда кинули соль, в результате чего кипение стало гораздо более активным. Примерно таким же образом была устроена пузырьковая камера. Только вместо соли туда кидались какие-то частицы, и вы, кроме того, что готовились загрузить туда макароны, на самом деле фотографировали все, что там происходит.

Для того чтобы фотографировать, нужен был, безусловно, человек, который отсеивал правильные или неправильные события и нужные или ненужные события. Потом был человек, который проявлял эти фотографии, человек, который проводил возможные траектории возможных частиц. В конце этой цепочки находился профессор, который говорил: «Да, вот эта частица полетела туда, и это означает, что это новая частица, мы сделали открытие, все хорошо, отлично. Мы молодцы».

Нельзя не отметить, что это очень трудоемкий процесс. Мы ведь не только строили камеру, но еще должны были все это сфотографировать, проанализировать эти фотографии, которые мы получили. В частности, даже создавались целые институты, которые занимались анализом фотографий. Например, суперкомпьютерный центр, занимающийся обработкой данных Большого адронного коллайдера, сейчас до сих пор носит имя Национальный центр анализа фотографий. Был целый институт, который занимался именно анализом фотографий.

Что стало происходить в дальнейшем? Дело в том, что в физике частиц мы имеем дело с вероятностными процессами. Некоторые процессы происходят часто, некоторые — достаточно редко. И чем реже происходит процесс, тем больше фотографий нам нужно сделать, для того чтобы этот процесс поймать. Если у нас вероятность какого-то процесса, например, одна тысячная, возможно, вам нужно сделать тысячу фотографий, а может быть, даже больше. Очевидно, что сделать несколько тысяч, несколько десятков тысяч, а может быть, несколько миллионов фотографий — это сложно даже для фотоаппарата. А потом еще проявить, а затем все это обработать.

Казалось бы, этот очень сложный и трудоемкий процесс не позволит в дальнейшем развиваться физике частиц и не позволит нам продолжать открывать новые частицы или новые взаимодействия. Но на помощь пришли компьютеры. С развитием компьютерной техники оказалось, что нажимать на кнопку фотоаппарата или, если вы хотите, нажимать на триггер, который включает фотоаппарат, компьютер может более эффективно, чем человек: компьютер может проанализировать наличие пузырьков на поверхности этой жидкости, например, по изменению цвета поверхности, потому что пузырьки имеют немного другой цвет по сравнению со всей остальной жидкостью или, например, по наличию дополнительного заряда на краях нашего детектора. И таким образом компьютер может сказать: «А вот это событие, конечно, было очень интересное. Давайте его сфотографируем». Соответственно, нажать на кнопку и сфотографировать.

Более того, компьютер может сохранить эту фотографию и обработать ее гораздо быстрее, чем человек: все-таки компьютер может работать день и ночь, и для него обработать миллион фотографий будет легче, чем нескольким людям или даже целому институту.

Что мы делали в физике частиц, для того чтобы научить компьютер анализировать данные? Мы пытались облегчить ему задачу, то есть вместо того, чтобы давать ему целую фотографию, брали специализированные алгоритмы, пытавшиеся провести траекторию частиц, которые мы поймали. Делали специальный алгоритм, который определял, какая частица пролетела. Делали еще дополнительные алгоритмы. И получалось, что на самом деле анализ фотографий, который делал человек, разбивался на несколько подчастей, которые делали специализированные алгоритмы, натренированные человеком.

Однако с развитием компьютерной техники оказалось, что способность человека указывать правила компьютеру не то чтобы сильно ограничена, но тоже отнимает довольно большое количество времени. И поэтому люди, работающие в физике частиц, обратились к людям, работающим в науке о данных, с вопросом, а что же можно сделать. И в 1994 году при открытии топ-кварка была впервые применена нейронная сеть. То есть какой-то прообраз того, что сейчас называют искусственным интеллектом. И эта нейронная сеть позволила совершить открытие топ-кварка и приблизила нас к тому состоянию, в котором находится физика частиц сейчас. А сейчас нейронные сети или решающие деревья, то, что опять же, как я сказал, сейчас составляет искусственный интеллект, применяются везде. Очень многие алгоритмы, которые раньше специализированным образом составлялись человеком, анализируются с помощью нейронной сети. Не без помощи человека, безусловно. Но тем не менее правила выбирает компьютер, а не человек. В этом основное отличие того, что происходило, скажем, в 1980-е годы, от того, что происходило в 2000-е.

Дошло до того, что в 2013 году, когда объявляли об открытии бозона Хиггса на Большом адронном коллайдере, никто уже не задавался вопросом, использовались ли нейронные сети в этом открытии или нет. По большому счету все понимали, что очень многие вещи базируются на искусственном интеллекте.

В последние несколько лет происходит большое, даже взрывное развитие методов науки о данных. Это связано с тем, что к этим методам приковано большое внимание, в том числе и коммерческих компаний, например интернет-компаний или других компаний, которые занимаются анализом данных. И кроме того, у нас появился интернет, который является большим источником данных. И у нас есть теперь компьютерные мощности, которые очень доступны и позволяют легко сравнивать алгоритмы, производительность алгоритмов, говорить о том, что этот алгоритм, например, лучше, чем другой алгоритм. И для этого мы используем компьютерную симуляцию нашего эксперимента, в которой мы складываем все физические процессы, которые уже были заранее измерены, то есть заранее известны. После чего мы сравниваем известные физические процессы с тем, что происходит на данный момент в детекторе, и говорим, что если там есть серьезное расхождение, это означает, что, скорее всего, именно в этом месте нужно что-то поискать.

Как вы понимаете, такого типа симуляция — это на самом деле очень сложная, дорогостоящая процедура. Для примера, на Большом адронном коллайдере происходит примерно несколько десятков миллионов событий в секунду. При этом для того, чтобы просимулировать одно событие, необходимо порядка минуты компьютерного времени. И соответственно, мы не можем себе позволить симулировать столько же данных, сколько собираем на адронном коллайдере.

Мы можем взять специально обученную нейронную сетку, которую попросим сгенерировать фотографии детектора в момент прохождения той или иной частицы через этот детектор. Таким образом, вместо одной минуты мы, скорее всего, получим симуляцию, которая длится несколько миллисекунд. То есть мы уже будем приближаться к тем величинам, которые характерны для событий, которые происходят по-настоящему внутри коллайдера.

Какую пользу мы как физики частиц можем получить от этой революции, которая происходит в науке о данных? В первую очередь мы можем взять новые алгоритмы и заменить старые алгоритмы, которые сейчас работают, на новые. И с помощью новых методов машинного обучения, которые развивались последние несколько лет, мы, скорее всего, получим большую эффективность. Больше того, исследования, которые сейчас проводятся, говорят о том, что эта эффективность действительно возрастает. Однако возрастает она, если можно так выразиться, всего на несколько процентов или десятков процентов. Это не та вещь, которую хочется получить от революции в науке о данных.

Поэтому мы пытаемся отменить парадигму того способа анализа фотографий, который был придуман, как только появились компьютеры. Я напомню, что раньше мы выстраивали несколько компьютерных систем, которые работали последовательно друг за другом. Вместо этого мы будем пытаться делать алгоритм, который будет анализировать фотографию в едином процессе. То есть мы возвращаемся опять к пузырьковой камере. У нас есть фотоаппарат около пузырьковой камеры, мы фотографируем событие, которое там произошло, и дальше какой-то ученый начинает анализировать целиком фотографию. И сейчас мы дошли наконец до такой стадии, что мы сможем, скорее всего, через некоторое время построить алгоритм, который анализирует такого типа фотографии, только полученные уже на более современных детекторах. Безусловно, эти фотографии будут гораздо сложнее, чем то, что происходило 70 лет назад.

Что же будет происходить с физиками? У нас есть, например, специальная нейронная сеть, которая была обучена, для того чтобы сгенерировать события. Нужен ли человек, который умеет строить точную физическую модель прохождения частиц, или не нужен? На самом деле нужен. Дело в том, что для того, чтобы натренировать нейронную сеть, нам нужно показать ей, какое на самом деле бывает событие. И нейронная сеть должна понимать, как выглядит настоящее событие, настоящий отклик детектора в зависимости от тех частиц, которые через него проходили. И именно для этого нам нужны настоящие люди, которые занимаются физикой. То есть они, скорее всего, не будут заниматься точными настройками, потому что ими будет заниматься нейронная сеть. Тем не менее носителями знания будут являться именно они.

Вот то, что происходило примерно с 1994 года до текущего времени. Несмотря на то что, как я сказал, элементы искусственного интеллекта (или, если вы хотите, нейронные сетки) и прочие методы машинного обучения применяются сейчас практически везде, тем не менее люди, носители экспертного знания, не лишились работы. Просто их работа стала более экспертной. Они стали больше времени заниматься именно исследованиями, то есть именно физикой, а не настройками в проявлении фотографий или чем-то еще таким. Иными словами, они стали больше полагаться на искусственный интеллект в рутинных операциях.


Источник: postnauka.ru