Искусственный интеллект Google учится красиво говорить по-китайски и по-английски |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-09-12 23:00 Для этого самообучающейся нейросети необходимо прослушать множество аудиозаписей и научиться самостоятельно выделять смыслообразующие изменения длины звуковой волны. Однако это не так просто. Аудиозапись человеческой речи - это порядка 16000 звуковых модуляций в секунду. Представьте себе визуализацию звуковой волны - обычный веретенообразный график. Каждый изгиб этого веретена порожден тысячами изменений длины и амплитуды звуковой волны. Существующие генераторы речи работают за счет конкатенации (склеивания) фрагментов записанной речи из обширной библиотеки. Их звучание совсем нетрудно отличить от человеческой речи. Вы часто слышите конкатенативные TTS (text-t-speach systems) в навигаторе: «Поверните направо, а затем поверните направо». Не записав дополнительно огромные библиотеки, нельзя добиться от такой системы естественного звучания. Поэтому возникла потребность в параметрической TTS (наподобие тех, которые существуют в вокодерах), которая могла бы озвучить любой фрагмент текста, не известный заранее, и была бы при этом неотличима на слух от речи живого человека. Во время обучения в компьютер загружаются записи речи живых людей на английском и китайском языках. После обучения разработчики просят WaveNet озвучить сгенерированные ей самой фразы. То, что система выдает сейчас, пока все еще отличается от речи живого человека, но уже не звучит как искусственный голос из навигатора. Ранее Deep Mind обыграл человека в го и разработал алгоритм для офтальмологической диагностики. Источник: www.popmech.ru Комментарии: |
|