США пытаются приспособить генеративный искусственный интеллект к медицине, но получается не очень |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-05-13 15:20 Исследования показывают, что искусственный интеллект не всегда помогает уменьшить выгорание врачей Исследователи говорят, что некоторые чат-боты могут увеличить рабочую нагрузку. Новое исследование предполагает , что использование генеративного ИИ может оказаться бесполезным в борьбе с выгоранием в сфере здравоохранения. Предыдущие исследования показали, что увеличение времени, затрачиваемого на использование систем электронных медицинских карт (ЭМК) и выполнение административных обязанностей, стало бременем для врачей. Поэтому было заявлено, что искусственный интеллект потенциальным решением, однако недавние исследования систем здравоохранения США показали, что большие языковые модели (LLM) не упрощают повседневные обязанности врачей. Например, в обсервационном исследовании 2023 года в Женской больнице имени Бригама в Бостоне, штат Массачусетс, изучалось влияние использования искусственного интеллекта для электронного обмена сообщениями с пациентами. Исследователи задействовали большую языковую модель для ответа на смоделированные вопросы больных раком , а затем сравнили ее результаты с ответами шести сертифицированных радиационных онкологов. Затем медицинские работники редактировали ответы, сгенерированные ИИ, в «клинически приемлемые» ответы и отправляли их пациентам. Исследование, опубликованное в The Lancet Digital Health, показало, что проекты LLM создают «риск серьезного вреда в 11 из 156 ответов на опрос и смерть в одном ответе на опрос». «Большинство вредных реакций произошло из-за неправильного определения или передачи остроты сценария и рекомендуемых действий», — пишут исследователи. Они пришли к выводу, что результаты, полученные с помощью LLM (отредактированные врачами), демонстрируют «сценарий лучшего из обоих миров» — снижение рабочей нагрузки врача при одновременном обеспечении получения точной информации пациентами. «Эти ранние результаты… указывают на необходимость тщательной оценки LLM в предполагаемых клинических контекстах, отражающих точную задачу и уровень человеческого надзора», — заключили в исследовании. В другом исследовании, проведенном нью-йоркской системой здравоохранения Mount Sinai, оценивались четыре различных типа больших языковых моделей на предмет производительности и шаблонов ошибок при запросе кодов медицинских счетов . Исследование, опубликованное в журнале NEJM AI, показало, что все протестированные LLM плохо справляются с запросами медицинских кодов, «часто генерируя коды, передающие неточную или сфабрикованную информацию». В исследовании был сделан вывод: «LLM не подходят для решения задач медицинского кодирования без дополнительных исследований». Исследование финансировалось Исследовательским фондом AGA и Национальными институтами здравоохранения (NIH). Исследователи отметили, что, хотя эти модели могут «приблизительно приближать значение многих кодов», они также «демонстрируют неприемлемую неточность и высокую склонность к фальсификации кодов». В третьем исследовании, опубликованном JAMA Network, проведенном Медицинской школой Калифорнийского университета в Сан-Диего, оценивались ответы ИИ на сообщения пациентов и время врачей, потраченное на их редактирование. Предполагалось, что проекты генеративного ИИ сократят время, затрачиваемое врачом на выполнение этих задач, однако результаты показали обратное. «Генераторные ответы, составленные с помощью ИИ, были связаны со значительно увеличенным временем чтения, отсутствием изменений во времени ответа, значительно увеличенной длиной ответа и [только] некоторыми предполагаемыми преимуществами», — говорится в исследовании. Источник: www.foxnews.com Комментарии: |
|