Новый инструмент от Google, который помогает разработчикам в сфере NLP. Он позволяет получить детальную информацию о модели, чтобы понимать принципы и возможности работы. |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-08-20 18:01 Искусственный интеллект делает очень много вещей очень хорошо, но как именно он делает эти вещи, часто остается неясным — окутанным тем, что стало известно как проблема “черного ящика”. Это особенно верно в НЛП, где исследователи могут тратить много времени, пытаясь выяснить, что пошло не так, когда их модели работают не так хорошо, как ожидалось. На прошлой неделе Google Research опубликовала статью, посвященную этой проблеме с помощью новой аналитической платформы с открытым исходным кодом: The Language Interpretability Tool (LIT). LIT-это инструментарий и браузерный пользовательский интерфейс (UI) для понимания модели НЛП. Он имеет пять основных функций:
Освещенный пользовательский интерфейс Пользовательский интерфейс LIT написан на языке TypeScript и взаимодействует с бэкэндом Python, в котором размещаются модели, наборы данных, генераторы контрфактов и другие компоненты интерпретации. Учитывая непрерывное развитие моделей НЛП, исследователи Google разработали LIT с пятью принципами:
Встроенные модули в освещенном Исследователи Google отмечают, что их интерактивный инструмент оценки LIT не подходит для мониторинга времени обучения или больших наборов данных. Бумажные средства языка интерпретируемости: расширяемый, интерактивной визуализации и анализа моделей НЛП по материалам arXiv. Этот инструмент был открыт с открытым исходным кодом на Github. Источник: bit.ly Комментарии: |
|