Расизм и дискриминация по половому признаку от медицинского ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследования показали, что большие языковые модели, такие как GPT-4, Llama 3 и другие, склонны недооценивать серьёзность симптомов у пациентов-женщин. Кроме того, их ответы демонстрируют меньше сопереживания при обращении чернокожих и азиатских пациентов с психическими проблемами.

Проблема частично возникает из-за данных, на которых обучают ИИ. Общедоступные модели тренируются на информации из интернета, которая может содержать предвзятость. Это рискует усилить существующее в здравоохранении неравенство в качестве лечения.

Учёные предлагают обучать медицинский ИИ на специализированных и репрезентативных наборах медицинских данных, а не на общедоступных интернет-источниках. Это поможет снизить риски и сделать рекомендации более справедливыми.


Источник: vk.com

Комментарии: