Этика искусственного интеллекта в радиологии: краткое изложение совместного заявления европейского и североамериканского общества

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Представляю вам адаптированный вариант свежей (1 окт 2019) статьи журнала "Radiology" про этические вопросы об искусственном интеллекте.

КРАТКО: вся ответственность на враче-рентгенологе. Нужны этические кодексы для использования ИИ. Если вы собираетесь участвовать в разработке или использовании ИИ в работе, то ниже есть список вопросов, которые можете себе задать.

ПОДРОБНО: (время на чтение 15 мин)

Это сжатое резюме международного заявления об этике искусственного интеллекта (ИИ) в радиологии, подготовленного всеми самыми уважаемыми обществами в нашей специальности, которые вы только можете знать ACR, European Society of Radiology (ESR), RSNA, Society for Imaging Informatics in Medicine (SIIM), European Society of Medical Imaging Informatics (EUSOMII), Canadian Association of Radiologists (CAR), and American Association of Physicists in Medicine (AAPM).

ИИ имеет большой потенциал для повышения эффективности и точности в радиологии, но он также несет в себе присущие ему подводные камни и недостатки. Широкое использование интеллектуальных и автономных систем на основе ИИ в радиологии может увеличить риск системных ошибок с высокими последствиями и выдвигает на первый план сложные этические и социальные проблемы. В настоящее время, мало опыта использования ИИ для лечения пациентов в различных клинических условиях. Обширные исследования необходимы, чтобы понять, как лучше использовать ИИ в клинической практике. В этом заявлении подчеркивается согласие с тем, что этическое использование ИИ в радиологии должно способствовать благополучию, минимизировать вред и обеспечивать справедливое распределение выгод и вреда между заинтересованными сторонами. Авторы считают, что ИИ должен уважать права и свободы человека, в том числе достоинство и неприкосновенность частной жизни. Это должно быть разработано для максимальной прозрачности и надежности. В обозримом будущем конечная ответственность и ответственность за ИИ остаются за его дизайнерами и операторами.

ВЗЯТЬ НА ЗАМЕТКУ

Этическое использование ИИ в радиологии должно способствовать благополучию, минимизировать вред и обеспечивать справедливое распределение выгод и вреда среди возможных заинтересованных сторон. ИИ в радиологии должен быть соответственно прозрачным и в высшей степени надежным, ограничивать смещение в принятии решений и обеспечивать, чтобы ответственность и ответственность оставались за разработчиками или операторами. Радиологическое сообщество должно начать разработку кодексов этики и практики для ИИ. Радиологи в конечном итоге будут нести ответственность за уход за пациентами и должны будут приобрести новые навыки, чтобы сделать все возможное для пациентов в новой экосистеме ИИ.

ВВЕДЕНИЕ

У ИИ есть потенциал изменить профессиональные отношения, вовлечение пациентов, иерархию знаний и рынок труда. Кроме того, ИИ может усугубить концентрацию и дисбаланс ресурсов, при этом сущности, обладающие значительными ресурсами ИИ, имеют больше возможностей для «принятия радиологических решений». У лучевых диагностов также будут данные, классифицированные и оцененные с помощью моделей искусственного интеллекта. ИИ определит закономерности в личном, профессиональном и институциональном поведении. Ценность, владение, использование и доступ к данным приобрели новые значения и значение в эпоху ИИ.

ИИ сложен и несет в себе потенциальные ловушки и присущие им недостатки. Широкое использование интеллектуальных и автономных машин на основе ИИ в радиологии может увеличить системные риски причинения вреда, повысить вероятность ошибок с серьезными последствиями и усилить сложные этические и социальные проблемы.

В настоящее время накоплен небольшой опыт использования ИИ для ухода за пациентами во всех его сложных и разнообразных условиях. Обширные исследования еще предстоит сделать, чтобы понять, как использовать ИИ в клинической практике и эксплуатационные характеристики, которые они должны иметь. Подход к этим вопросам будет зависеть как от этики сообщества, так и от технических факторов.

Цель лучевой диагностики должна состоять в том, чтобы получить как можно больше пользы от этического использования ИИ, но при этом не поддаваться соблазну дополнительной денежной выгоды от неэтичного использования данных лучевой диагностики и ИИ.

Люди, вовлеченные в любую стадию жизненного цикла продукта ИИ, должны досконально понимать его. Мы обязаны понимать риски продуктов, которые мы используем, предупреждать пациентов и заинтересованных лиц об этих подводных камнях, в зависимости от обстоятельств, и отслеживать продукты ИИ для защиты от вреда. Мы обязаны обеспечить не только то, чтобы использование продукта было выгодным в целом, но и чтобы распределение выгод между возможными заинтересованными сторонами было справедливым и справедливым. Мы должны понимать, что, хотя большинство изменений будут позитивными, ИИ вызовет неизбежные социальные и экономические изменения, и такие серьезные социальные изменения часто несоразмерно плохи для наиболее уязвимых сообществ.

Диагносты изучают этический ИИ, в то же время мы же изобретаем и внедряем его. Технологические изменения в ИИ и реакция общества на них развиваются со скоростью и масштабами, которые трудно понять, не говоря уже о том, чтобы ими управлять. Наше понимание этических проблем и наш соответствующий ответ на них постоянно меняются. Чтобы сделать все возможное для наших пациентов и наших сообществ, у нас есть моральное обязательство учитывать этику того, как мы используем и оцениваем данные, как мы создаем и используем машины для принятия решений и как мы ведем себя как профессионалы.

ЭТИКА ДАННЫХ

Этика данных имеет основополагающее значение для искусственного интеллекта в радиологии и отражает доверие к получению, управлению и оценке данных. Ключевые области этики данных включают информированное согласие, конфиденциальность и защиту данных, право собственности, объективность, прозрачность, разрыв между теми, кто имеет или не имеет ресурсов для управления большими наборами данных, и предоставление значимых и моральных прав доступа к данным.

Поскольку сегодня для разработки машин с искусственным интеллектом требуются четко обозначенные диагностические данные, ценность этих данных и давление, оказываемые для коммерческого доступа к ним, стремительно растут. Помимо значительного блага, получаемого от использования этих данных для улучшения здоровья пациентов, существует множество способов неэтичного использования данных, которые могут нанести вред пациентам или общественному благу. Лучшие практики, позволяющие разрешать такой доступ к данным и управлять им, развиваются со скоростью, которая превосходит наши нынешние знания или способности. Это же быстрое развитие относится к неэтичным и сомнительным практикам. Одна из величайших задач состоит в том, как помешать тем, кто будет пытаться получить выгоду от неэтичного использования данных.

При реализации модели ИИ ответственные лица должны иметь возможность ответить на эти и другие подобные вопросы, касающиеся этики данных:

Как мы будем документировать и уведомлять пациентов о том, как используются их данные? Как мы должны документировать данные, используемые для обучения алгоритма, включая дескрипторы для функций, традиционно связанных с предвзятостью и дискриминацией? Как и кем создаются разметки? Какое отклонение результатов может возникнуть из-за используемых процессов? Какие смещения могут существовать в данных, используемых для обучения и тестирования алгоритмов? Что мы сделали для оценки предвзятости данных и как это может повлиять на нашу модель? Каковы возможные риски, которые могут возникнуть из-за ошибок в данных? Какие шаги мы предприняли для смягчения этих предубеждений и как пользователи должны учитывать оставшиеся предвзятости? Соответствует ли наш метод маркировки истинной правды (ground truth) тому клиническому случаю, который мы пытаемся разрешить? Каковы его ограничения?

ЭТИКА АЛГОРИТМОВ

Принятие решений - это выбор убеждения или курса действий среди множества альтернатив, часто приводящих к действию. Принятие решений человеком основывается на знаниях, ценностях, предпочтениях и убеждениях человека. ИИ выбирает альтернативы на основе особенностей входных данных. Для контролируемого обучения алгоритм выбирает эту альтернативу на основе предшествующего обучения, чтобы сопоставить метки с этими характеристиками данных.

Хотя ИИ хорошо справляется с задачами классификации, всегда важно отметить, что продукт ИИ - это не человек, а компьютерная программа, задуманная, созданная и контролируемая людьми. Справедливость и равенство не являются понятиями ИИ. Ответственность за такое понимание ложится на людей, которые должны предвидеть, насколько быстро изменяющиеся модели ИИ могут работать некорректно или использоваться неправильно, и защищать от неэтичных результатов, в идеале, до их появления.

Чтобы укрепить доверие пациентов и поставщиков к ИИ, важно иметь как можно большую прозрачность в отношении того, как принимаются решения. Когда ошибки происходят сегодня, мы исследуем причину и проектируем системы, чтобы исключить вероятность подобных ошибок в будущем. Если алгоритм терпит неудачу или способствует неблагоприятному клиническому событию, необходимо уметь понимать, почему он дал результат, который он сделал, и как он достиг решения. Чтобы модель была прозрачной, она должна быть видимой и понятной для внешних зрителей. Несоответствующий уровень прозрачности может сделать его более уязвимым для злонамеренных атак или раскрыть проприетарную интеллектуальную собственность. Кроме того, введение широкого определения прозрачности может поставить под угрозу конфиденциальность, раскрывая личные данные, скрытые в базовых наборах данных.

Пользователи должны быть в состоянии объяснить общественности простым языком, как их данные будут использоваться для создания интеллектуального или автономного инструмента. Объясняемость - это способность объяснить, что произошло, когда модель приняла решение, в терминах, понятных человеку. Она направлена ??на то, чтобы понять, почему модель приняла конкретное решение, и оценить условия, в которых модель преуспевает и в которых она терпит неудачу. Объясняемость включает в себя как понимание технических аспектов структуры алгоритма, так и представления результатов пользователю.

Сегодня модели с лучшей "объяснимостью" обычно показывают худшую производительность. Современные модели глубокого обучения имеют более 100 миллионов параметров, включают в себя методы, которые нормализуют или исключают параметры на основе статистических методов, и, по крайней мере, с помощью современных технологий практически непостижимы. Определение причинной ошибки в такой системе является непростой задачей. Более практический подход может заключаться в том, чтобы пропагандировать визуализацию и объяснимость результатов, в том числе меры согласованности и обобщения, а также механизм, позволяющий останавливать и предупреждать людей, когда изменяются выходные данные модели или показатели достоверности модели падают ниже определенного уровня.

Поскольку различные модели искусственного интеллекта относительно легко создавать и обучать, исследовательские и коммерческие решения на основе искусственного интеллекта могут быть созданы иногда наивными или непрофессиональными участниками. Это повышает важность расширения существующих этических кодексов в медицине, статистике и информатике для рассмотрения ситуаций, специфичных для радиологического ИИ.

Когда модель ИИ реализована, те, кто отвечает за любую часть его жизненного цикла, должны иметь возможность ответить на эти и другие подобные вопросы об этике алгоритмов:

Можем ли мы объяснить, как наш ИИ принимает решения, или, по крайней мере, надежно предсказать результаты нашего ИИ анализа в известных наборах данных? Как мы защищаемся от вредоносных атак на инструменты и данные ИИ? Как создать устойчивый контроль версий для данных ИИ, алгоритмов, моделей и продаваемых продуктов? Как мы минимизируем риск нанесения вреда пациенту от злонамеренных атак и нарушений конфиденциальности? Как мы будем оценивать обученные модели перед клиническим применением, с точки зрения клинической эффективности, этического поведения и безопасности?

Как мы будем отслеживать модели искусственного интеллекта в клиническом рабочем процессе, чтобы убедиться, что они работают так, как прогнозируется, и что производительность не ухудшается со временем?

ПРАКТИКА

Моральное поведение, совершая правильные поступки, может быть интеллектуально неопределенным. Добросовестные этические ценности должны определять решения о том, когда применять ИИ, определять метрики для описания соответствующего и ответственного ИИ, а также распознавать и предупреждать сообщество о неэтичном ИИ.

Предвзятость автоматизации - это склонность людей отдавать предпочтение генерируемым машиной решениям, игнорируя противоречивые данные или противоречащие решения людей. Смещение автоматизации приводит к ошибкам упущения и комиссии. Ошибки пропуска возникают, когда люди не замечают или игнорируют отказ инструмента ИИ. Высокие скорости принятия решений, при которых решения по диагностическим исследованиям быстро читаются рентгенологом, предрасполагают к пропуску патологии. Это усугубляется решениями ИИ, основанными на особенностях, которые слишком тонки для обнаружения человеком. Ошибки возникают, когда кто-то ошибочно принимает или выполняет решение машины, несмотря на другие доказательства обратного.

В какой степени врачи могут делегировать задачу диагностики заболеваний интеллектуальным или автономным системам, не подвергая себя повышенной ответственности за злоупотребления служебным положением, если система допускает ошибку? Такие вопросы, касающиеся вреда, вызванного ИИ, будут возникать все чаще и чаще, поскольку эти инструменты становятся повсеместными. Источники ответственности могут возникать из-за таких вопросов, как конфиденциальность данных, контракты, халатность, преступное поведение, компенсация ответственности или страхование.

В конечном счете, разработчики искусственного интеллекта должны придерживаться того же стандарта «не навреди», что и врачи. Хотя ответственность в конечном итоге ложится на человека, определение юридической ответственности, когда решение системы ИИ приводит к ущербу, все еще находится в процессе изменения. Может быть трудно определить, в какой степени данные, сам алгоритм ИИ и как он используется, несут ответственность за причерченный ущерб. Различные модели ответственности могут возникнуть для различных параметров и форм ИИ. Со временем система ответственности за риски будет развиваться, но сейчас она в зачаточном состоянии.

Поскольку диагностика включает автономные и интеллектуальные продукты ИИ в широко распространенную, требовательную клиническую практику, ответственные лица должны быть в состоянии ответить на эти и другие подобные вопросы об этике этой новой парадигмы практики:

Каковы риски пациента и поставщика, связанные с этой реализацией ИИ, и какой уровень человеческого контроля необходим для снижения этих рисков? Какое образование и навыки необходимы, чтобы решить, следует ли применять ИИ для наших пациентов и безопасно и эффективно использовать его при необходимости? Как мы гарантируем, что данные тестирования точно отражают целевую клиническую когорту? Какие процессы мы должны внедрить, чтобы отслеживать влияние (исходы, конфиденциальность и непреднамеренная дискриминация) ИИ на наших пациентов и поставщиков (смещение автоматизации)? Как нам постоянно и активно следить за автономными и интеллектуальными инструментами на основе ИИ, чтобы убедиться, что они работают должным образом в клинической помощи? Какие ограждения мы должны использовать, чтобы определить, когда и, что более важно, когда нет, внедрять автономные или интеллектуальные механические агенты?

Источник: pubs.rsna.org

Комментарии: