Проблема: модели машинного обучения могут выдавать неточные прогнозы, когда полагаются на простые характеристики набора данных, а не на их истинную природу |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-11-11 12:15 Проблема: модели машинного обучения могут выдавать неточные прогнозы, когда полагаются на простые характеристики набора данных, а не на их истинную природу. Это быстрее, но менее надёжно. Например, модель может научиться распознавать изображение коровы по зелёной траве на фотографии, а не по сложным формам и узорам самой коровы. Если нейронка таким образом определяет заболевания по медицинским снимкам, она может поставить неверный диагноз. Решение: заставлять модель фокусироваться на большем количестве данных при обучении. Более простые свойства удаляют, заставляя модель фокусироваться на сложных характеристиках, которые не были учтены при быстрой обработке. Метод основан на неявном изменении функции и не полагается на человеческий вклад в обучение модели. С такими машинами Митчеллы бы не справились. Кто: исследователи Массачусетского технологического института и Питтсбургского университета, США. Источник: vk.com Комментарии: |
|