Сверточная нейронная сеть и ее интеграция в iOS (часть 1)

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Средства реализации.

Различные алгоритмы машинного обучения интегрированы в множество высокоуровневых языков программирования. Наиболее популярным и быстро развивающимся из них является Python.

TensorFlow — открытая программная библиотека для машинного обучения, разработанная компанией Google для решения задач построения и тренировки нейронной сети с целью автоматического нахождения и классификации образов, достигая качества человеческого восприятия. Основной API для работы с библиотекой реализован для Python.

Keras — открытая нейросетевая библиотека. Она представляет собой надстройку над фреймворками TensorFlow и Theano. Нацелена на оперативную работу с сетями глубинного обучения, при этом спроектирована так, чтобы быть компактной, модульной и расширяемой.

В качестве интерпретатора выбрана последняя на данный момент версия Python 3.7.2. Среда разработки — PyCharm Community.

Подготовка данных.

В современном мире, для большинства задач ИИ, не требуется собирать набор данных вручную, существует множество ресурсов, где после прохождения регистрации есть возможность скачать готовые датасеты. Был выбран набор данных с десятью цифрами на языке жестов (рис.1).
Рис.1. – Цифры на языке жестов. Алгоритму потребуется обнаружить наличие жеста на фотографии и классифицировать его цифрой от 0 до 9. Перед построением архитектуры нейронной сети, нужно подготовить данные для её обучения. Сначала загружаются данные Sign Language Digits Dataset. Первый файл содержит 2063 черно-белые картинки с цифрами на языке жестов. Картинки имеют размер 64х64 пикселя. Второй файл содержит метку(вектор) соответствующий картинки.
Значения пикселей в картинках нормализованы и находятся в интервале (0,1). Их можно сразу использовать для входа в нейронную сеть, но наиболее оптимальный результат будет достигнут, если выполнить процедуру стандартизации. После её выполнения у каждой матрицы пикселей будут выполнены правила:

Среднее значение по матрице равно нулю
Дисперсия в матрице равна единице.

Фотографии стандартизируются и добавляются в новый массив для последующего их объединения с предыдущими данными (Рис.2)
Рис.2. — Процедура загрузки и обработки изображений. Архитектура нейронной сети.

Network_sign_lang.py — основной файл проекта в которым описана нейросеть. В начале скрипта описываются несколько глобальных переменных нейросети (Рис.3).
Рис.3. — Глобальные параметры. Batch_size – количество изображений подающихся в нейросеть на каждую итерацию. Num_classes – количество классов которые будет предсказывать модель. Img_size – размер изображений подаваемых на входной слой.

Импортируется в проект функция train_test_split() из библиотеки Sklearn, она разбивает массивы X и y в отношении 80:20 на обучающую и тестовую выборки, а так же случайным образом перемешивает данные, чтобы они не были отсортированы по классам.

Затем инициализируется модель (Рис.4), добавляется первый слой Conv2D. На вход подается изображения из массива Xtrain, указывается размерность выходного пространства — 64, ядро свертки — 4х4, шаг свертки и функция активации слоя ReLU.
Рис.4. — Нейронная сеть Поскольку в нейронных сетях обычно используют намного большее число обучающих данных, построенная модель склонна к переобучению. Чтобы этого избежать, используется эффективный способ регуляризации, такой, как прореживание (Dropout). Этот слой будет исключать указанный процент случайных нейронов, чтобы не происходило перенасыщение весов между слоями. Число 0,5 будет означать, что на каждом батче алгоритм будет исключать половину случайных нейронов. Второй основной слой тоже аналогично первому – сверточный. (Conv2D)

Следующим добавляется слой пулинга (MaxPooling2D). Он служит еще одним фильтром для выхода модели. Поскольку при отображении цифр по горизонтали или вертикали, смысл изображения не меняется, нейросеть должна классифицировать их одинаково.

Flatten слой служит связующим звеном между полученными алгоритмом данными и выходным вектором с предсказанием. Последний слой сети – слой Dense с функцией активации sofmax. Данная функция позволяет получить нормализованный вектор вероятностей для каждого класса, где сумма вероятностей будет равна единице.

Далее необходимо скомпилировать созданную модель, указав следующие параметры: метрику, функцию потерь и оптимизатор. В качестве метрики выбирается точность (accuracy) – процент верно классифицированных примеров. Функция потерь – categorical_crossentropy. Алгоритм оптимизации — Adam. Перед запуском обучения добавляется несколько возвратных функций (callbacks). EarlyStopping — останавливает обучение нейросети, когда её точность перестает возрастать с эпохами обучения. ModelCheckpoint – сохраняет наилучшие веса модели в файл для их последующего использования.

Запускается обучение нейронной сети с сохранением данных о его процессе в переменную histor. Validation_split – возьмет десять процентов от обучающих данных для валидации, что представляет собой еще один способ регуляризации.

Размер обучающей выборки составляет 1965 примеров, тестовой – 547, валидационной – 219. После завершения процесса обучения строится график зависимости точностей, полученных на обучающих и тестовых данных (Рис.5).
Рис.5. — График обучения. Из графика видно, что была сохранена модель на 15 эпохе (с наибольшей точностью и наименьшим разрывом между Xtrain и Xtest).

Следующим шагом будет загрузка полученных нейросетей в другой скрипт для проверки их функционирования. Выводятся значения метрик на тестовых данных (Рис.6).
Рис.6. — Проверка работоспособности модели. По результатам метрик можно сделать вывод, что модели не сильно различаются. Чем ниже показатель функции потерь, тем увереннее предсказания алгоритма. Значение точности или верности модели показывает процент верно классифицированных фотографий, значит, чем он выше, тем нейросеть лучше. Следовательно, логичнее в дальнейшим использовать первую модель, полученную в результате ранней остановки обучения.

Про препроцессинг данных и интеграцию нейросети определенного формата в IOS приложении мы расскажем в следующей части.

Источник: habr.com

Комментарии: