Расизм и дискриминация по половому признаку от медицинского ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-24 12:18 Исследования показали, что большие языковые модели, такие как GPT-4, Llama 3 и другие, склонны недооценивать серьёзность симптомов у пациентов-женщин. Кроме того, их ответы демонстрируют меньше сопереживания при обращении чернокожих и азиатских пациентов с психическими проблемами. Проблема частично возникает из-за данных, на которых обучают ИИ. Общедоступные модели тренируются на информации из интернета, которая может содержать предвзятость. Это рискует усилить существующее в здравоохранении неравенство в качестве лечения. Учёные предлагают обучать медицинский ИИ на специализированных и репрезентативных наборах медицинских данных, а не на общедоступных интернет-источниках. Это поможет снизить риски и сделать рекомендации более справедливыми. Источник: vk.com Комментарии: |
|