Медицинские нейросети играют в «угадайку» |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-09-05 11:43 Исследование, опубликованное в JAMA Network Open, показало ограниченность нейросетей в медицинских вопросах — оказалось, что LLM не столько рассуждают, сколько угадывают по знакомым шаблонам. Учёные изменили сотню вопросов из медицинского экзамена MedQA (правильный вариант заменили на «Ни один из указанных»). Такой трюк позволил проверить, заметят ли модели подвох, или же будут подбирать привычные ответы. Результаты оказались красноречивыми: Точность GPT-4o — -36.8. Gemini 2.0 — -33.8. Claude 3.5 — -26.5. LLaMA 3.3 — -38.2. DeepSeek-R1 — -8.8. o3-mini — -16.2. Вместо логического анализа модели чаще пытались «подогнать» ответ под паттерн, чем по-настоящему разобрать задачу. Авторы работы делают вывод, что применять LLM в клинической практике пока рискованно. Источник: vk.com Комментарии: |
|