Подробнее об NLP |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-03-01 07:25 Обработку естественного языка можно поделить на 3 взаимосвязанных области: Natural Language Understading (NLU, понимание естественного языка), Speech Recognition (Speech to Text, STT, распознавание устной речи) и Natural Language Generation (NLG, генерация текста или речи). Типичные задачи NLP
Методы NLP Методы NLP можно грубо поделить на rule-based (основанные на правилах) и statistical (статистические). Rule-based методы базируются на сложных лингвистических и математических правилах решения конкретной задачи. Например, если вы создаете систему распознания речи с помощью rule-based подхода, то вам потребуется вручную вывести какой-то общий шаблон того, как звучит (или отображается на спектрограмме) каждый звук ([а], [б] и т.д.) у разных дикторов, в разных шумовых условиях и т.п. Сделать это невероятно сложно и требует огромных человеческих усилий и времени. Опытные фонологи, вручную размечающие тексты, со временем начинают распознавать звуки на спектрограмме, но сформулировать точные, понятные машине правила у них не получается. Долгое время многие задачи в области NLP решались при помощи таких вот ручных правил, а некоторые казались и вовсе неразрешимыми. Но с ростом хайпа вокруг больших данных начали набирать популярность статистические методы. Суть этих методов — попытаться уловить правила, по которым работает язык, загрузив в себя как можно больше примеров валидных произношений, слов, предложений, ответов на определенные вопросы и любых других исходных для задач NLP данных. На выходе статистические алгоритмы выдают модель входных данных. Модель можно представить как такой черный ящик, который можно спросить, например: «Насколько правильно предложение 'йа хчу кушать'?» Или: «Что следует за словами 'я тебя…'?», а модель ответит: «'люблю' с вероятностью 0.55, 'не' с вероятностью 0.33 …», что будет отражать частоту определенных последовательностей слов в языке. На этом, например, построен автоподбор слов в клавиатуре вашего телефона и поисковой строке гугла. Таким образом, решение задач с помощью статистического подхода заключается в том, чтобы собрать как можно больше размеченных данных и создать на них модель языка, которую можно использовать для получения нужных ответов. Дальнейшее чтение
До встречи в следующих статьях! Источник: m.vk.com Комментарии: |
|