Как обучить нейросеть на шумных данных для задачи классификации |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-08-28 11:58 В Google предложили модифицированную логистическую функцию ошибки (Bi-Tempered Logistic Loss), которая устойчива к шумным данным. Качество ML-моделей напрямую зависит от качества данных, на которых они обучались. Данные из реального мира обычно содержат шум, который мешает модели учиться. Шум в данных может быть нескольких видов: от поврежденных объектов в выборке (например, вспышка на изображении кота) до неверно размеченных примеров (например, изображение кота размечено как «собака»). Возможность модели учитывать шумные данные при обучении зависит от той функции потерь, которая используется. Для задачи классификации стандартной функцией потерь является логистическая функция ошибки. Однако она неудачно справляется с шумными данными по двум причинам:
В Google предложили модифицированную логистическую функцию потерь, которая учитывает эти недостатки стандартной формулировки функции. Модифицированная функция называется Bi-Tempered Logistic Loss. Функция имеет два обучаемых параметра, каждый из которых отвечает за один из типов шумных данных. Исследователи называют их “температурами”: t1 характеризует ограниченность функции, а t2 характеризует то, насколько длинный хвост у распределения данных. Тестирование Чтобы продемонстрировать разницу в использовании стандартной формулировки Logistic Loss и Bi-Tempered Logistic Loss при обучении модели. Исследователи обучили двухслойную полносвязную нейросеть для задачи бинарной классификации. Данные для обучения были сгенерированы. Ниже видно, что Bi-Tempered Logistic Loss более точна в определении границ для данных разной степени зашумленности. Источник: neurohive.io Комментарии: |
|