Искусственный интеллект, который используется для ведения врачебной документации, преуменьшает проблемы у пациенток или даже удаляет данные об их симптомах |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-13 15:02 Исследование «Evaluating gender bias in large language models in long-term care», проведенное Лондонской школой экономики, показало, что искусственный интеллект, который используется для ведения врачебной документации, преуменьшает проблемы у пациенток или даже удаляет данные об их симптомах. Проблема с гендерной предвзятостью ИИ давно известна: он искажает данные в пользу мужчин. Это усугубляется тем, что абсолютное большинство пользователей не понимает принципы его работы и доверяет ему полностью, не проводя факт-чекинг и не используя критическое мышление при обработке результатов. Корпорации и учреждения все чаще используют языковые модели для сбора, хранения и анализа информации — и вот тут возникает огромная дыра, в которую проваливаются самые уязвимые. Машинный интеллект опирается на гендерные стереотипы для описания болезней и оценок по уходу, из-за чего женщины остаются без медицинской и социальной поддержки. Ученые создали пул данных, используя обезличенные данные о пожилых людях и убрав оттуда специфические половые отличия (например, из больничных карт женщин была удалена информация о последствиях домашнего насилия или о перенесенной мастэктомии), но оставив указание на пол. Чтобы добиться чистоты эксперимента, в записях поменяли данные о половой принадлежности пациентов. Данные были загружены в несколько специализированных моделей, которые используются в здравоохранении. Они должны были проанализировать анамнез пациентов и выдать рекомендации по дальнейшему лечебному и социальному маршруту. Результаты никого не удивили. Выводы ИИ значительно зависели от пола пациентов. Для характеристики женского здоровья использовались такие слова, как «неразумная» и «эмоциональная», а для мужского — «счастливый» и «обеспокоенный». Даже если потребности людей разного пола были идентичны, система выдавала разные рекомендации. Женщины маркировались как самостоятельные и способные жить без помощи, в то время как мужчины получали возможность вызывать медсестер и получать соцподдержку. Из рекомендаций часто исключались данные о женских симптомах и анамнезе, а при описании проблем использовались неточные, расплывчатые формулировки. В результате мужчины получали повышенный уровень внимания и ухода, пока женщины были лишены справедливого отношения. Авторы исследования отмечают, что важно отмечать даже единичные случаи дискриминации, так как некорректные рекомендации приводят к тому, что мужчины и женщины получают разный уровень медицинской помощи. За каждой строкой в реестре стоит живая пациентка, нуждающаяся в помощи и поддержке. Каждое некорректное описание приводит к боли и беспомощности реальной женщины: нашей матери, сестры, подруги или нас самих. Правоспособные ответственные гражданки оказываются лишены самого элементарного: возможности получить полноценную медицинскую помощь в необходимом объеме. Женщины, которые работали и платили налоги, рожали и воспитывали детей, выполняя важнейшую и незаменимую роль в обществе, оказываются выброшены на обочину сразу же после выхода из детородного возраста. Искусственный интеллект отражает то, что в него вложили создатели: предвзятое, неблагодарное и жестокое отношение к женщинам. https://bmcmedinformdecismak.biomedcentral.com/articles/10.1186/s12911-025-03118-0#Tab5 Проклятая амбивалентность https://t.me/damnambivalence/4258 Источник: t.me Комментарии: |
|