Хорошо интерпретируемые методы анализа данных

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Специалист по Computer Science Алексей Незнанов об интерпретируемости методов анализа данных, применении систем искусственного интеллекта в клинике и значимости объяснений для доказательной медицины

Современная область, которая обычно называется «науки о данных», ? это междисциплинарная область, которая своим названием подчеркивает как раз объект исследования, то есть данные в любых формах, и пытается тем самым застолбить себе место во всех возможных приложениях. Сейчас нас в первую очередь интересуют клинические приложения, потому что на их примере очень хорошо показать, почему одни методы данных предпочитаются другим методам. И мы расскажем о хорошо интерпретируемых методах в противовес тем методам, которые, может быть, даже показывают лучшее качество, но не являются хорошо интерпретируемыми.

Итак, стандартное определение заключается в том, что хорошо интерпретируемый метод анализа данных позволяет восстановить рассуждения компьютерной системы и пересказать эти рассуждения человеку, чтобы он мог понять, как получен результат анализа данных. В этом контексте интересно появление термина «объяснение» (explanation), который описывает этот процесс. То есть мы у компьютерной системы не только запрашиваем ответ на какой-то вопрос, но еще потом говорим: «Пожалуйста, объясни нам, как ты это получила».

Клиницисты, то есть доктора, кровно заинтересованы в том, чтобы не навредить пациенту. При этом они как могут не навредить? Попытаться использовать только хорошо интерпретируемые методы, чтобы у себя в голове прокрутить, что сказала им машина и как она это им сказала, как она это объяснила и стыкуется ли это с теми знаниями, которые есть у доктора в голове. Понятно, что если это объяснение нельзя получить, то даже что-то очень интересное, что выдала машина, можно трактовать только как некую гипотезу.

Особенно это интересно в контексте того, что существуют методы, которые дают разные ответы. То есть многообразие подходов к анализу данных, а также работа с большими данными, что сейчас становится нормой, приводят к появлению артефактов анализа. Почему? Потому что в достаточно крупных данных всегда может найтись какая-то интересная аномалия, которую можно выявить, предъявить пользователю и сказать: «Вот это результат анализа. Видите, какая интересная аномалия?» А дальше мы спрашиваем себя, насколько она значима. Понятно, что здесь задействуется классическая математическая статистика, мы оцениваем уровень статистической значимости и так далее.

Но что делать, если у нас не появляется какой-то гипотезы с очень высоким уровнем значимости и все остальные имеют уровень намного более низкий, а мы имеем несколько предположений с похожими уровнями значимости, но разные? Если мы не имеем объяснения, то на этом этапе клиницист говорит: «Идите вы куда подальше со своей компьютерной системой, и вообще этот искусственный интеллект меня не колышет». (Простите за грубость. Я очень смягчил выражения.) При этом, как только мы говорим: «А теперь послушай объяснение…», даже в этой ситуации, когда есть какие-то разные интересные выводы, сделанные системой, то клиницист слушает, что она ему говорит в качестве объяснения, и начинает сам думать.

До этого у него не было возможности самому думать, поскольку не было входных данных. А сами большие данные, которые сейчас являются входом, например, для систем поддержки принятия клинических решений, никак не дают возможности человеку что-то начать обдумывать. Даже всевозможные средства визуализации, которые помогают как-то начать этот процесс, бессмысленны без предъявления гипотез. И получается, что, например, нейронные сети, в том числе даже глубокие, сверточные, генеративные модели и так далее не обладают настолько хорошей объяснительной силой и возможностью интерпретировать тот результат, который они выдали, чем, возможно, методы с более низким качеством, но зато этим обладающие. Как, например, классические методы классификации на основе деревьев принятия решений, лесов и так далее.

Более того, мы развиваем методы, которые основаны на еще более интересном фундаменте с точки зрения интерпретации, который называется анализ формальных понятий. Анализ формальных понятий ? это достаточно сложно вычислимые вещи, которые лежат в основе алгоритмов принятия решений или классификации. Но зато они позволяют сказать, что вы не пропустили никакие из гипотез, которые имеют похожий уровень статистической значимости, чем тот, который мы выдали. И они позволяют досконально объяснить не только структуру гипотез, но и их происхождение. Отсюда понятно, что клиницистам они начинают нравиться. Но возникают очень серьезные проблемы при внедрении. Почему? Потому что если мы берем нейронную сеть, она на каких-то данных обучается, а на других данных выдает какую-то классификацию, то мы просто говорим: «Этот результат классификации ? это все, что вам нужно знать». А когда мы говорим, что у нас есть теперь интересный интерактивный процесс участия эксперта-клинициста в работе хорошо интерпретируемого метода, то нам нужно сделать этот интерактивный процесс. Возникают вопросы в интерфейсе с пользователем, вызывают вопросы в жизненном цикле таких систем, вызывает вопросы интеграция этого с другими компонентами медицинских информационных систем и так далее. Но тем не менее опыт показывает, что именно хорошо интерпретируемые методы реально внедряются, в то время как многие другие оказываются только поставщиками тех самых гипотез.

Но как дальше поведет себя в целом область, пока непонятно. Почему? Потому что на границе 2016–2017 годов мы получили возможность при еще большем напряжении технических средств с большей вычислительной сложностью что-то наконец получать из работы нейронных сетей. Тем самым мы в целом повышаем уровень интерпретируемости и уровень объяснительной силы наших методов. Это очень-очень хорошо. И отсюда появляется направление, которое называется не просто «хорошо интерпретируемые методы искусственного интеллекта», а в целом «интерактивный анализ», который сейчас намного шире, чем классическая, например, бизнес-аналитика.

В итоге тренд, связанный с развитием хорошо интерпретируемых методов и повышением интерпретируемости большинства методов анализа данных, ? это драйвер развития того, что обеспечивает внедрение в новых областях. Тем самым мы получаем возможность внедрения методов искусственного интеллекта во все большее и большее число областей, общее повышение эффективности и наконец-то создание интегрированных систем, которые не являются строго специализированными.

В качестве примера того, чем отличается работа хорошо интерпретируемого метода и, например, классического метода классификации, можно привести стандартные сейчас методы прогнозирования протекания заболеваний. Если мы имеем некую обучающую выборку, то есть знаем исторические данные о том, как раньше протекали заболевания, и знаем их исходы, то мы можем действительно использовать это для обучения. Но очень тяжело понять, какие из факторов являются реальными факторами риска. И если простые модели их, конечно, выявляют, например регрессионные модели, то более сложные модели могут их плохо выявлять, хотя и неплохо классифицировать людей, скажем, по вопросу, умрут они в следующем году с вероятностью 95% или нет.

В результате очень большое направление — это развитие предиктивных моделей, например, в прогнозировании естественной истории развития заболевания, и они становятся моделями из первых принципов. То есть мы понимаем, как развивается заболевание, и моделируем его развитие в компьютере. Например, моделируем развитие бактерий, вирусов и так далее. Или, наоборот, занимаемся анализом черного ящика и предсказательным моделированием, когда говорим, что хоть мы и не понимаем, как из первых принципов развивается заболевание, но тем не менее понимаем, что случается при том или ином воздействии на организм и при тех или иных входных условиях. И дальше мы начинаем говорить, что появляется математическая модель, где есть четкие параметры, четкие зависимости и ответ. Обычно это представляется в виде систем нелинейных уравнений различного вида, имеет серьезный набор внутренних параметров. Но эти параметры подбираются не методами, используемыми в нейронных сетях, например, обратного распространения ошибки, а выбираются, исходя из особенностей заболевания, имеющихся физических, биологических и так далее моделей. А дальше эти параметры подгоняются под имеющиеся у нас картины заболеваний.

Интересно, что если мы сделали предиктивную аналитику для того, как себя ведет заболевание, если его не лечить, то есть для естественной истории, то тем самым мы получаем возможность сравнить, что происходит в естественной истории и в истории лечения. Если же мы при этом в истории лечения накапливаем данные, то теперь можем использовать хорошо интерпретируемые методы для анализа того, какие из способов лечения лучше, и дополнять модель естественной истории моделями лечения. И делать эти модели тоже не просто произвольными методами классификации, а только хорошо интерпретируемыми. И тем самым накапливать блоки гипотез, рисков и иметь очень хорошие возможности начинать или продолжать клинические исследования в каких-то областях, для того чтобы преобразовать наши способы анализа данных в знания о том, какие методы лечения в реальности дают эффект. Потому что главным способом получения знания о том, что происходит, в доказательной медицине являются контролируемые рандомизируемые клинические исследования.

При этом если мы сравниваем результаты клинических исследований с предшествующим запуском каких-то процедур машинного обучения, то мы, если имеем хорошую интерпретируемость, можем понять, почему и как что происходит. И клиницисты, участвующие в клиническом исследовании, могут получить намного большее знание и тем самым намного больше результатов клинического исследования. А если они этого не знают, они оставляют все неинтерпретируемое, что делает компьютер, в стороне. И говорят, что даже не хотят этим пользоваться, поскольку знаний напрямую это не добавляет. Да, это может натолкнуть на какие-то интересные мысли, но потом все равно нужна обычная математическая статистика.

Отсюда мы ни в коем случае не говорим, что не нужно развивать плохо интерпретируемые методы. Они нужны и интересны, если показывают хорошее качество решения конкретных задач, например задач кластеризации, классификации и так далее. Но они должны всегда подкрепляться методами с хорошей интерпретируемостью и возможностью объяснения. И дальше, когда мы внедряем их в конечный продукт, который становится частью системы поддержки принятия врачебного или клинического решения или системы, которая работает с конечным пользователем, мы предлагаем это объяснение как один из результатов. И пользователь хоть и получает запись «обязательно проконсультируйтесь с лечащим врачом», тем не менее получается реальное знание, и это всем очень нравится.

Интересно также, что, как только мы это получаем, мы можем накопить массив объяснений и дальше сделать хорошо интерпретируемый метод анализа объяснений. А вот это обычные методы в принципе не дают. Если мы предлагаем такой метод для каких-то узких областей, то дальше, накопив данные в узких областях, мы можем сделать интегрированную систему анализа объяснений. Тем самым сейчас можно делать очень интересные системы, например рекомендательные, на основе хорошо интерпретируемых методов, которые кроме рекомендаций выдают как раз то, как получить следующие рекомендации.

Все прекрасно знают, что, например, Google выдает нам рекламу в Gmail на основе использования рекомендательной системы. Если то же самое распространять на клиническую информатику, то мы можем пациенту предлагать сделать какие-то интересные интервенции не просто как результат, а как объяснение того, почему мы их предложили. А дальше, накопив информацию о том, какие из них были хорошо восприняты, какие плохо восприняты и какой ответ на терапию, какова результативность, какова выживаемость, оценить качество объяснений.

Как только мы получаем качество объяснений, мы тут же можем дополнять общую базу знаний медицины. То есть доказательная медицина в принципе как методология очень любит хорошо интерпретируемые методы. И сейчас мы получаем интересные результаты на стыке, когда сначала гипотезу получаем любым методом. Дальше говорим: «Клиницист, какой тебе нужен тип объяснения, на каком уровне?» Применяем несколько хорошо интерпретируемых вариантов (обычно они вычислительно сложны, к сожалению, но клиницист готов ждать), а затем объединяем все эти результаты в гибридных системах. Поэтому очень интересным трендом является как раз развитие гибридных методов, которые становятся основой гибридных систем поддержки принятия решений.


Источник: postnauka.ru

Комментарии: