Распространяющиеся ошибки меток в наборах данных ML дестабилизируют бенчмарки

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Никак не можете понять, почему ваша нейросеть ошибается при распознавании объектов? Возможно, ей просто не повезло с «учебниками».

Группа исследователей из Массачусетского технологического института провела анализ популярных датасетов и выявила, что примерно в 3,5% случаев объекты на изображениях там размечены неверно. Например, регулярно встречаются ошибки с породами собак, видами рыб и даже с определением цифр. Больше всего проблем было обнаружено в датасете QuickDraw — больше 10% ошибок!

Как следствие, эти неточности, допущенные ещё на этапе разметки объектов, приводят к ошибкам во время работы нейросети. К счастью, исследователи не только указали на существующие ошибки, но и исправили их, опубликовав доработанные датасеты.

Хорошо известно, что наборы данных ML не имеют идеальной маркировки. Но не было много исследований, чтобы систематически количественно оценить, насколько подвержены ошибкам наиболее часто используемые наборы данных ML в масштабе. Предыдущая работа была сосредоточена на ошибках в поездных наборах наборов данных ML. Но ни в одном исследовании не рассматривалась систематическая ошибка в наиболее цитируемых тестовых наборах ML-наборах, на которые мы полагаемся для оценки прогресса в области машинного обучения.

Здесь мы алгоритмически определили и проверили на людях, что действительно существуют распространенные ошибки меток в десяти наиболее цитируемых тестовых наборах, а затем изучили, как они влияют на стабильность тестов ML. Здесь мы суммируем наши выводы вместе с ключевыми выводами для практикующих мл.

Ошибки в высоко цитируемых тестовых наборах бенчмарков

Просмотрите все ошибки меток во всех наборах данных объемом 10 мл по адресу labelerrors.com (демо-версии ниже):

Ключевые выводы из распространяющихся ошибок этикеток

Насколько распространенными являются ошибки в тестовых наборах ML?

  • Мы оцениваем в среднем 3,4% ошибок в 10 наборах данных, где, например, 2916 ошибок меток составляют 6% тестового набора CIFAR-100 и ~390 000 ошибок меток составляют ~4% набора данных Amazon Reviews. Даже набор данных MNIST, считающийся безошибочным и проверенный в десятках тысяч рецензируемых публикаций ML, содержит 15 (проверенных человеком) ошибок меток в тестовом наборе.

Из 10 наборов данных мл, которые вы просмотрели, в каком было больше всего ошибок?

  • Тестовый набор QuickDraw содержит более 5 миллионов ошибок, составляющих около 10% тестового набора. Просмотр ошибок меток QuickDraw.

Как вы обнаружили ошибки меток в наборах данных vision, text и audio?

  • Во всех 10 наборах данных ошибки меток идентифицируются алгоритмически с помощью уверенного обучения, а затем проверяются человеком с помощью краудсорсинга (54% алгоритмически помеченных кандидатов действительно ошибочно помечены). Структура уверенного обучения не связана с конкретной модальностью или моделью данных, что позволяет нам находить ошибки меток во многих типах наборов данных.

Каковы последствия распространяющихся ошибок меток тестовых наборов?

  • Более высокая емкость/сложные модели (например, ResNet-50) лучше работают с исходными неправильно маркированными тестовыми данными (то есть с тем, что традиционно измеряется), но модели с более низкой емкостью (например, ResNet-18) дают более высокую точность на исправленных метках (то есть с тем, что на практике важно, но не может быть измерено без предоставленных нами вручную исправленных тестовых данных). Это, вероятно, происходит из-за того, что модели с более высокой производительностью перестраиваются на шум метки набора поездов во время обучения и/или перестраиваются на набор валидации/тестирования путем настройки гиперпараметров на наборе тестов (даже если набор тестов предположительно невидим).

Сколько шума может дестабилизировать бенчмарки ImageNet и CIFAR?

  • На ImageNet с исправленными метками: ResNet-18 превосходит ResNet-50, если Распространенность неправильно маркированных тестовых примеров увеличивается всего на 6%. На CIFAR-10 с исправленными метками: VGG-11 превосходит VGG-19, если Распространенность неправильно маркированных тестовых примеров увеличивается на 5%.

Доступна ли очищенная версия каждого набора тестов?

  • Да, [очищенные тестовые наборы ML здесь]. В этих очищенных наборах люди исправляли большую часть ошибок меток. Мы надеемся, что будущие исследования по этим тестам будут использовать эти улучшенные тестовые данные вместо первоначальных ошибочных меток.

Могу ли я взаимодействовать с ошибками меток в каждом наборе данных?

  • Да! Ошибки из десяти тестовых наборов ML, которые мы проанализировали, можно просмотреть по адресу labelerrors.com. Чтобы услышать звуковые ошибки, выберите “Dataset: AudioSet.” Чтобы просмотреть ошибки естественного языка (текст), выберите набор данных из [“20news”, “IMDB” и "Amazon”]. Чтобы просмотреть ошибки компьютерного зрения (изображения), выберите один из вариантов [“MNIST”, “CIFAR-10”, “CIFAR-100”, “Caltech-256”, “ImageNet” и “QuickDraw”].

Являются ли ошибки маркировки точными на 100%?

  • Результаты не идеальны. В некоторых случаях рабочие механического турка соглашаются на неправильный ярлык. Мы все еще, вероятно, фиксируем только нижнюю границу ошибки, учитывая, что мы проверили только небольшую часть наборов данных на наличие ошибок. Хотя наши исправленные этикетки не являются точными на 100%, при осмотре они кажутся значительно превосходящими оригинальные этикетки.

Что должны делать практикующие мл по-другому?

Традиционно практикующие ML выбирают, какую модель развертывать, основываясь на точности тестов — наши результаты советуют соблюдать осторожность здесь, предполагая, что оценка моделей по правильно помеченным тестовым наборам может быть более полезной, особенно для шумных реальных наборов данных. Мы предлагаем две рекомендации для практикующих мл:

  1. Исправьте метки вашего тестового набора (например, используя наш подход)
    • чтобы измерить точность реального мира, о которой вы заботитесь на практике.
    • чтобы выяснить, страдает ли ваш набор данных от дестабилизированных бенчмарков.
  2. Рассмотрите возможность использования более простых/меньших моделей для наборов данных с шумными метками
    • особенно для приложений, обученных/оцененных с помощью помеченных данных, которые могут быть более шумными, чем наборы данных золотого стандарта ML Benchmark.

Поиск ошибок меток

Количество ошибок меток и процентное соотношение между 10 популярными наборами данных ML
Ошибки тестовых наборов заметны во всех распространенных тестовых наборах данных. Ошибки оцениваются с помощью уверенного обучения (CL) и проверяются людьми-рабочими на механическом турке.

Человеческая валидация ошибок меток

Механический Турковый интерфейс, используемый для проверки ошибок этикеток
Рабочий интерфейс механического турка показывает пример из CIFAR-100 (с заданной меткой “cat”). Для каждой точки данных, алгоритмически идентифицированной как потенциальная ошибка метки, интерфейс представляет точку данных вместе с примерами, принадлежащими данному классу. Интерфейс также показывает точки данных, принадлежащие к уверенно предсказанному классу. Либо данный класс показан как вариант (а), а предсказанный-как вариант (Б), либо наоборот (выбирается случайным образом). Работника спрашивают, относится ли изображение к классу (А), (Б), обоим или ни к одному.

Механический Турк валидация ошибок этикеток в их различных формах
Механическая валидация Turk, подтверждающая наличие распространенных ошибок в этикетках и классифицирующая типы проблем с этикетками.

Влияние ошибок тестовых меток на контрольные показатели

Бенчмарк ранжирования CIFAR и ImageNet по исправленным тестовым меткам
Бенчмарк-ранжирование сравнение 34 моделей, предварительно обученных на ImageNet, и 13 моделей, предварительно обученных на CIFAR-10 (подробнее в статье). Контрольные показатели остаются неизменными при удалении ошибок меток (а), но резко изменяются на подмножестве тестового набора, идентифицированного как имеющее метки, которые должны быть исправлены, в частности при сравнении точности исходных (ошибочных) меток с исправленными метками, например Nasnet: 1/34 -> 29/34, ResNet-18: 34/34 -> 1/34.

Нестабильность контрольных показателей мл

Распространенность шума при изменении бенчмарка CIFAR
ImageNet top-1 оригинальная точность (верхняя панель) и скорректированная точность (нижняя панель) в зависимости от распространенности шума (N). Вертикальные линии указывают уровни шума, при которых изменяется ранжирование двух моделей (с точки зрения исходной/скорректированной точности). Самая левая Распространенность шума (N = 6%) по оси x-это (округленная) исходная оценка распространенности шума из [этой таблицы]. Крайняя левая вертикальная пунктирная линия на нижней панели должна быть прочитана следующим образом: "контрольные показатели Resnet-50 и Resnet-18 пересекаются при распространенности шума N = 11,4%, что означает, что Resnet-18 превосходит Resnet-50 при увеличении N примерно на N = 6% относительно исходных данных теста (N = 5,83%)."

Распространенность шума при изменении бенчмарка CIFAR
CIFAR-10 top-1 исходная точность (верхняя панель) и скорректированная точность (нижняя панель) в зависимости от распространенности шума (с порогом согласия = 3). Вертикальные линии указывают уровни шума, при которых изменяется ранжирование двух моделей (с точки зрения исходной/скорректированной точности).

Узнать больше

Подробное обсуждение этой работы доступно в [нашей статье arXiv].

Эти результаты основаны на обширной работе , проделанной в Массачусетском технологическом институте по созданию уверенного обучения-подполя машинного обучения, которое рассматривает наборы данных для поиска и количественной оценки шума меток. В этом проекте уверенное обучение используется для алгоритмической идентификации всех ошибок метки до проверки человеком.

Мы упростили другим исследователям репликацию их результатов и поиск ошибок меток в их собственных наборах данных с помощью cleanlab, пакета python с открытым исходным кодом для машинного обучения с шумными метками.

Сопутствующая Работа

  1. Введение в уверенное обучение: [просмотр этого поста]
  2. Введение в пакет cleanlab Python для ML с шумными метками: [просмотреть этот пост]

Подтверждения

Эта работа была частично поддержана финансированием MIT-IBM Watson AI Lab, MIT Quanta Labи MIT Quest for Intelligence. Мы благодарим Джесси Лин за ее помощь с ранними версиями этой работы (принятой в качестве рабочего документа на семинаре NeurIPS 2020 Workshop on Dataset Curation and Security).

Была ли эта статья полезной? Можно ли его улучшить? Что тебе понравилось? Комментарий ниже!


Источник: l7.curtisnorthcutt.com

Комментарии: