Ученые Массачусетского технологического института создали «скромный» искусственный интеллект |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-25 11:15 Искусственный интеллект может помочь врачам в диагностике пациентов и подборе индивидуального лечения. Однако международная группа ученых под руководством Массачусетского технологического института предупреждает, что существующие системы искусственного интеллекта могут привести к тому, что врачи будут принимать неверные решения из-за чрезмерной самоуверенности систем ИИ. По мнению исследователей, один из способов избежать подобных ошибок — запрограммировать системы искусственного интеллекта на более «скромное» поведение. Такие системы будут сообщать, когда они не уверены в своих диагнозах или рекомендациях, и побуждать пользователей собирать дополнительную информацию, если диагноз вызывает сомнения. Ученые разработали концепцию, которая, по их словам, может помочь разработчикам ИИ создавать системы, проявляющие любознательность и скромность. По мнению исследователей, этот новый подход позволит врачам и системам искусственного интеллекта работать в тандеме и предотвратит чрезмерное влияние ИИ на решения врачей. Чтобы создать такую систему, консорциум разработал структуру, включающую в себя несколько вычислительных модулей, которые можно интегрировать в существующие системы искусственного интеллекта. Первый из этих модулей позволяет модели искусственного интеллекта оценивать собственную достоверность при составлении диагностических прогнозов. Разработанный членами консорциума модуль Epistemic Virtue Score выступает в качестве механизма самосознания, гарантирующего, что уверенность системы будет соответствующим образом скорректирована с учетом присущей каждому клиническому сценарию неопределенности и сложности. Обладая таким самосознанием, модель может адаптировать свою реакцию к ситуации. Если система обнаружит, что ее уверенность в своих выводах превышает уровень, подтвержденный имеющимися данными, она может приостановить работу и указать на несоответствие, запросив дополнительные анализы или историю болезни, которые помогут устранить неопределенность, или порекомендовав консультацию специалиста. Цель состоит в том, чтобы создать искусственный интеллект, который не только дает ответы, но и сигнализирует, когда к этим ответам следует относиться с осторожностью. «Это как если бы у вас был второй пилот, который подсказал бы вам, что нужно взглянуть на ситуацию со стороны, чтобы лучше понять этого сложного пациента», — считают исследователи «Мы заставляем их сомневаться в наборе данных. Уверены ли они в своих обучающих и проверочных данных? Считают ли они, что какие-то пациенты были исключены из выборки, намеренно или нет, и как это повлияет на саму модель? — говорят ученые. — Конечно, мы не можем остановить или хотя бы замедлить развитие искусственного интеллекта не только в здравоохранении, но и во всех других отраслях. Но мы должны подходить к этому более осознанно и вдумчиво». Телеграм: t.me/ainewsline Источник: t.me Комментарии: |
|