Проблема: модели машинного обучения могут выдавать неточные прогнозы, когда полагаются на простые характеристики набора данных, а не на их истинную природу

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Проблема: модели машинного обучения могут выдавать неточные прогнозы, когда полагаются на простые характеристики набора данных, а не на их истинную природу. Это быстрее, но менее надёжно. Например, модель может научиться распознавать изображение коровы по зелёной траве на фотографии, а не по сложным формам и узорам самой коровы.

Если нейронка таким образом определяет заболевания по медицинским снимкам, она может поставить неверный диагноз.

Решение: заставлять модель фокусироваться на большем количестве данных при обучении. Более простые свойства удаляют, заставляя модель фокусироваться на сложных характеристиках, которые не были учтены при быстрой обработке.

Метод основан на неявном изменении функции и не полагается на человеческий вклад в обучение модели.

С такими машинами Митчеллы бы не справились.

Кто: исследователи Массачусетского технологического института и Питтсбургского университета, США.

Комментарии: