Результат работы сервисов, основанных на машинном обучении, может быть не совсем точным.

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Результат работы сервисов, основанных на машинном обучении, может быть не совсем точным. Например, ссылка, которую вы ищете в интернете, может оказаться не первой среди результатов поиска. Это называется ошибкой, причём в данном случае «ошибка» — математический термин. Её всегда можно представить как число — измерить и выяснить, насколько неточным оказался алгоритм.

Когда мы меняем параметры работы алгоритма, меняется и ошибка. Другими словами, есть прямая математическая зависимость ошибки от этих параметров. Как правило, их множество, но давайте для простоты представим, что их всего два. Тогда можно изобразить зависимость размера ошибки от двух параметров.

На графике О — это ошибка, A и B — параметры работы алгоритма, которые мы можем менять. Видно, что некоторые комбинации A и B делают ошибку очень большой: такие фрагменты отмечены на графике красным. Перебирая значения A и B, мы, конечно, хотим сделать алгоритм более точным, уменьшить ошибку, «спуститься» по поверхности на графике из красных зон в синие.

Почему спуск называется градиентным? Говоря простым языком, градиент в каждой точке показывает, куда по поверхности нужно двигаться из этой точки, чтобы кратчайшим путём достичь максимального значения (красные зоны) или минимального (синие). Мы стремимся к минимальному значению — «спускаемся», ориентируясь на направление градиента. Поэтому такой процесс совершенствования алгоритма называется градиентным спуском.

Комментарии: