Рекуррентные блоки GRU. Пример их реализации в задаче сентимент-анализа | #25 нейросети на Python |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-09-24 21:03 Как работают блоки GRU (Gated Recurrent Units) рекуррентных нейронных сетей. Подробный анализ их архитектуры. Пример реализации слоя GRU в пакете Keras для задачи сентимент-анализа коротких высказываний. Управляемые рекуррентные блоки. lesson 25. GRU sentiment analysis.py: https://github.com/selfedu-rus/neural-network GRU: https://ru-keras.com/recurrent-layers/ Источник: ru-keras.com Комментарии: |
|