Глубокие нейросети вылечили от забывчивости |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-03-16 16:52 Специалисты из компании DeepMind и Имперского колледжа Лондона создали алгоритм для обучения глубоких нейросетей, позволяющий им последовательно обучаться новым задачам, сохраняя «память» о предыдущих. Такой подход еще на шаг приблизил искусственные нейронные сети к биологическим, в которых последовательное обучение вместо «замены» старых знаний на новые является одной из ключевых особенностей. Новое исследование опубликовано в Proceedings of National Academy of Sciences, коротко о нем можно прочитать в официальном блоге DeepMind. Авторы проверяли работу нового алгоритма на двух задачах: обучении с учителем и обучении с подкреплением. В первом случае нейросеть обучали распознавать рукописные цифры, последовательно внося в выборку определенные искажения, чтобы для каждого нового шага нейросеть была вынуждена обучаться заново. Во втором случае нейросеть училась играть в игры для классической приставки Atari 2600, популярной в 70-80 годы прошлого века. Нейросеть последовательно обучалась на разных играх, для которых требовались разные стратегии. Оказалось, что при использовании нового алгоритма упругого закрепления весов нейросети удалось «запомнить» веса, необходимые для выполнения всех предыдущих задач. При этом сеть немного проигрывала в каждом отдельном случае, зато показывала хорошие результаты по сумме всех этапов. В том случае, если сеть обучали традиционным методом градиентного спуска, в котором разрешается переписать все веса на каждой новой задаче, нейросеть успешно работала в каждом отдельном случае, но была неспособна показать удовлетворительный результат по предыдущим задачам. Существует и альтернативная архитектура нейросетей, созданная для работы с длинными сериями данных, например, текстом или музыкой. Эти нейросети называются рекуррентными и предполагают наличие долгосрочной и краткосрочной памяти, что позволяет им одновременно ориентироваться и в локальных задачах (например, анализ контекста определенного слова), и в глобальных (например, запомнить правила синтаксиса и стилистики определенного языка). Такие нейросети действительно обладают мощной «памятью», но, как правило, уступают глубоким нейросетями по способности анализировать сложные наборы признаков, встречающиеся, например, при работе с изображениями. Тарас Молотилин Источник: nplus1.ru Комментарии: |
|