Немецкие учёные считают, что нужно что-то делать с предвзятым отношением пациентов к ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2024-08-10 12:05

ии в медицине

Опубликована в журнале Nature Medicine

научная статья исследователей из Университета Вюрцбурга:

"Влияние предполагаемого участия ИИ на восприятие цифровых медицинских консультаций".

В оригинале:

Reis, M., Reis, F. & Kunde, W. Influence of believed AI involvement on the perception of digital medical advice. Nat Med (2024).

doi 10.1038/ s41591-024-03180-7

Пациенты предвзяты по отношению к ИИ. К такому выводу пришёл коллектив немецких исследователей после эксперимента, результаты которого опубликованы в вышеприведенной научной статье.

В эксперименте 2280 пациентам во время прохождения онлайн-консультации демонстрировали медицинские рекомендации, чье авторство маркировали следующими ярлыками: «ИИ», «врач-человек» или «врач-человек плюс ИИ».

Цитата из научной работы: "Мы исследовали, как маркировка идентичных медицинских рекомендаций, полученных от врача-человека или от чат-бота на основе ИИ, влияет на восприятие этой информации с точки зрения надежности, понятности и эмпатии".

Пациенты посчитали что те рекомендации, которые якобы были подготовлены реальным врачом (человеком), являются более эмпатичными и надежными, а также

продемонстрировали большее желание следовать "человеческим" рекомендациям нежели рекомендациям чат-бота.

Цитата: "Более того, участники указали на меньшую готовность следовать рекомендациям, когда были уверены, что данные рекомендации выработаны ИИ".

В реальности респондентам демонстрировали стандартные рекомендации, подготовленные врачом (человеком) с использованием рекомендаций ИИ.

Цитата: "Рекомендации "человека" были оценены как значительно более надежные, чем рекомендации "искусственного интеллекта".

Авторы работы отмечают:

"ИИ обладает огромным потенциалом в области медицины, например, при анализе медицинских изображений или исследования взаимодействия лекарственных средств. Недавние разработки в области больших языковых моделей (LLM) на основе ИИ привели к появлению множества дополнительных возможностей для здравоохранения. Одним из вариантов использования, который становится все более актуальным с точки зрения общества, является использование больших языковых моделей при обращении за медицинской консультацией. В этой сфере популярные LLM-приложения, такие как OpenAI ChatGPT, дают низкопороговый доступ к медицинской информации, по-видимому, без необходимости обращаться к специальной литературе или профессиональным врачам. Несмотря на то, что существуют серьезные опасения по поводу использования больших языковых моделей в здравоохранении, более ранние исследования показывают, что ChatGPT 4.0 уже обеспечивает диагностическую точность на уровне обычных врачей. В другом исследовании врачи (не знающие о том, кто создал эти рекомендации) даже оценили ответы, сгенерированные большой языковой моделью в ответ на медицинские запросы, как более качественные и эмпатичные, чем ответы, сгенерированные обычными врачами".

(Ayers, J. W. et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern. Med. 183, 589–596 (2023).

В заключительной части абстракта авторы пишут:

"Наши результаты указывают на предвзятость в отношении ИИ при получении цифровых медицинских рекомендаций, даже когда ИИ предположительно находится под контролем врачей. Учитывая огромный потенциал ИИ для медицины, выяснение способов противодействия этой предвзятости должно стать важной целью будущих исследований."


Источник: vk.com

Комментарии: