Математики РУДН и Свободного университета Берлина предложили новый способ использования нейронных сетей для работы с зашумленными данными больших размерностей |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-08-04 16:38 Математики РУДН и Свободного университета г. Берлина предложили новый подход к изучению распределений вероятностей наблюдаемых данных с помощью искусственных нейронных сетей. Новый подход лучше взаимодействует с так называемыми выбросами — с теми объектами входных данных, которые значительно выделяются из общей выборки. Восстановление распределения вероятностей наблюдаемых данных искусственными нейронными сетями — это наиболее важная часть машинного обучения. Распределение вероятностей не только позволяет прогнозировать поведение исследуемой системы, но и количественно оценить неопределенность, с которой делаются прогнозы. Главная трудность заключается в том, что, как правило, наблюдаются лишь сами данные, но их вероятностные распределения в точном виде не доступны. Для решения этой проблемы используют байесовские и близкие к ним приближенные методы. Но их использование увеличивает сложность нейронной сети и соответственно ее обучения. Математики РУДН и Свободного университета г. Берлина использовали детерминированные веса для нейронных сетей, а выходами сетей закодировали распределения латентных переменных для искомого маргинального (частного) распределения. Анализ динамики обучения таких сетей позволил им получить формулу, которая корректно оценивает дисперсию распределения наблюдаемых данных, несмотря на наличие в данных выбросов. Предложенную модель проверили на разных данных: синтетических и реальных. Новый метод позволяет восстанавливать распределения вероятностей с более высокой точностью по сравнению с другими современными методами. Точность оценивалась по методу AUC (area under the curve — это площадь под графиком, который позволяет оценить среднеквадратичную ошибку предсказаний в зависимости от размера выборки, оцененной сетью как «надежная»; чем выше оценка AUC, тем качественнее предсказания). Статья опубликована в журнале Artificial Intelligence. Источник: www.rudn.ru Комментарии: |
|