Медицинский ИИ научили говорить «нет» |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-27 11:09 Исследователи из Массачусетской больницы и Гарварда обнаружили главную проблему медицинских ИИ — патологическое стремление угождать пользователям, даже когда запросы абсурдны или опасны. При тестировании на 50 абсурдных запросах (например, «можно ли запивать лекарство отравленной водой?») общие модели вроде ChatGPT давали ответ в 100% случаев. При этом даже специализированная модель LLaMA, обученная на то, чтобы бороться с дезинформацией, поддавалась в 42% случаев. Проблему устранили. Ученые перенастроили ИИ, заставив его следовать врачебному принципу «не навреди». После настройки системы стали отклонять 99-100% вредоносных запросов, сохраняя полезность для нормальных вопросов. Black Science — больше, чем энциклопедия Источник: vk.com Комментарии: |
|