Математики РУДН и Свободного университета Берлина предложили новый способ использования нейронных сетей для работы с зашумленными данными больших размерностей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-08-04 16:38 Математики РУДН и Свободного университета г. Берлина предложили новый подход к изучению распределений вероятностей наблюдаемых данных с помощью искусственных нейронных сетей. Новый подход лучше взаимодействует с так называемыми выбросами — с теми объектами входных данных, которые значительно выделяются из общей выборки. Восстановление распределения вероятностей наблюдаемых данных искусственными нейронными сетями — это наиболее важная часть машинного обучения. Распределение вероятностей не только позволяет прогнозировать поведение исследуемой системы, но и количественно оценить неопределенность, с которой делаются прогнозы. Главная трудность заключается в том, что, как правило, наблюдаются лишь сами данные, но их вероятностные распределения в точном виде не доступны. Для решения этой проблемы используют байесовские и близкие к ним приближенные методы. Но их использование увеличивает сложность нейронной сети и соответственно ее обучения. Математики РУДН и Свободного университета г. Берлина использовали детерминированные веса для нейронных сетей, а выходами сетей закодировали распределения латентных переменных для искомого маргинального (частного) распределения. Анализ динамики обучения таких сетей позволил им получить формулу, которая корректно оценивает дисперсию распределения наблюдаемых данных, несмотря на наличие в данных выбросов. Предложенную модель проверили на разных данных: синтетических и реальных. Новый метод позволяет восстанавливать распределения вероятностей с более высокой точностью по сравнению с другими современными методами. Точность оценивалась по методу AUC (area under the curve — это площадь под графиком, который позволяет оценить среднеквадратичную ошибку предсказаний в зависимости от размера выборки, оцененной сетью как «надежная»; чем выше оценка AUC, тем качественнее предсказания). Статья опубликована в журнале Artificial Intelligence. ![]() Телеграм: t.me/ainewsline Источник: www.rudn.ru Комментарии: |
|