Может ли ИИ задать правильные клинические вопросы при поиске информации в ЭМК?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Врачам необходимо найти в электронной медицинской карте пациента информацию, которая помогает им принимать решения о лечении, но громоздкий характер этих записей затрудняет процесс. Даже если врач обучен работе с электронной медицинской картой (ЭМК), поиск ответа только на один вопрос может занять в среднем более восьми минут.

Чем больше времени врачи тратят на навигацию по зачастую неуклюжему интерфейсу ЭМК, тем меньше времени у них остается на взаимодействие с пациентами и назначения лечения.

Исследователи приступили к разработке моделей машинного обучения, которые могут упростить процесс, автоматически находя необходимую врачам информацию в электронных медицинских карточках.

Понятно, что для обучения таких моделей требуются огромные наборы данных и чтобы преодолеть эту нехватку данных, исследователи Массачусетского технологического института объединились с медицинскими экспертами для формирования вопросов, которые врачи задают при просмотре электронных медицинских карт. Они дали этим медицинским экспертам более 100 сводок выписки из электронных медицинских карт и предложили им прочитать сводку и задать любые вопросы, которые у них могут возникнуть.

Затем был создан общедоступный набор данных из более чем 2000 клинически значимых вопросов, написанных этими медицинскими экспертами.

Кроме того, медицинских экспертов попросили определить «триггерный текст» в электронных медицинских карточках, который побуждал их задавать каждый вопрос.

Например, медицинский эксперт может прочитать заметку в EHR, в которой говорится, что предыдущая история болезни пациента важна для постановки диагноза рак предстательной железы и гипотиреоз. Триггерный текст «рак простаты» может привести к тому, что эксперт задаст такие вопросы, как «дата постановки диагноза?» или «проведены какие-либо вмешательства?» Было обнаружено, что большинство вопросов были сосредоточены на симптомах, лечении или результатах анализов пациента.

Затем медицинские эксперты определили, являются ли эти вопросы «хорошими», используя четыре показателя:

  • понятность (имеет ли вопрос смысл для врача-человека?);
  • тривиальность (не слишком ли легко ответить на вопрос, исходя из триггерного текста?);
  • медицинская актуальность (имеет смысл задавать этот вопрос, исходя из контекста?);
  • релевантность триггеру (связан ли триггер с вопросом?).

После того, как был собран набор данных вопросов и сопровождающий текст триггера, исследователи использовали его для обучения моделей машинного обучения задавать новые вопросы уже на основе текста триггера.

Однако, исследователи обнаружили, что когда модели давали триггерный текст, она могла генерировать правильный вопрос только в 63 процентах случаев, в то время как врач-человек задавал хороший вопрос в 80 процентах случаев.?


Источник: m.vk.com

Комментарии: