Использование ИИ для борьбы с COVID-19 может нанести вред обездоленным группам населения, считают эксперты

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи университета также обратили внимание на дискриминацию в технологии искусственного интеллекта, поскольку они выбирают профили симптомов из медицинских записей, отражая и усугубляя предубеждения в отношении меньшинств

В прошлом году компании по всему миру разработали методы использования больших данных и машинного обучения в медицине. Модель, разработанная Массачусетским технологическим институтом (MIT), использует искусственный интеллект для выявления бессимптомных пациентов с COVID-19 по кашлю, записанному на их смартфонах. В Южной Корее компания использовала облачные вычисления для сканирования рентгеновских снимков грудной клетки для наблюдения за инфицированными пациентами.

Искусственный интеллект (ИИ) и МЛ были широко развернуты во время пандемии, и их использование варьировалось от извлечения данных до распространения вакцин. Но эксперты из Кембриджского университета поднимают вопросы об этическом использовании ИИ, поскольку они видят, что эта технология имеет тенденцию наносить ущерб меньшинствам и лицам с более низким социально-экономическим статусом.

“Ослабление этических требований в условиях кризиса может иметь непреднамеренные вредные последствия, которые продлятся далеко за пределами жизни пандемии”, - сказал Стивен Кейв, директор Кембриджского центра будущего разведки (CFI).

Принятие клинических решений, таких как прогнозирование темпов ухудшения состояния пациентов, которым может потребоваться вентиляция легких, может быть ошибочным, поскольку модель ИИ использует предвзятые данные. Эти обученные наборы данных и алгоритмы неизбежно искажаются в отношении групп, которые редко получают доступ к медицинским услугам, включая этнические меньшинства и тех, кто принадлежит к более низкому социальному статусу, предупредила Кембриджская команда.

Другая проблема заключается в том, как алгоритмы используются для распределения вакцин на местном, национальном и глобальном уровнях. В декабре прошлого года алгоритм плана вакцинации Стэнфордского Медицинского центра оставил без внимания несколько молодых фронтовых работников.

“Во многих случаях ИИ играет центральную роль в определении того, кто лучше всего способен пережить пандемию. В кризисе здравоохранения такого масштаба ставки на справедливость и равноправие чрезвычайно высоки”, - говорит Алекса Хагерти, научный сотрудник Кембриджского университета.

Исследователи университета также обратили внимание на дискриминацию в технологии искусственного интеллекта, поскольку они выбирают профили симптомов из медицинских записей, отражая и усугубляя предубеждения в отношении меньшинств.

Использование приложений для отслеживания контактов также подверглось критике со стороны нескольких экспертов по всему миру, заявив, что они исключают тех, кто не имеет доступа к интернету, и тех, кто не имеет цифровых навыков, среди прочих вопросов конфиденциальности пользователей.

В Индии программы биометрической идентификации могут быть связаны с распространением вакцинации, что вызывает озабоченность по поводу конфиденциальности и безопасности данных. Другие алгоритмы распределения вакцин, в том числе некоторые, используемые альянсом COVAX, управляются частным ИИ. Эти частные алгоритмы похожи на "черный ящик", отметил Хагерти.


Источник: www.thehindu.com

Комментарии: