Facebook AI опубликовали самого крупного чатбота |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-05-01 10:57 В FAIR опубликовали самого крупного чатбота, который поддерживает разговор на любые темы. По результатам опроса, Blender обходит предыдущих опенсорсных чатботов по вовлеченности и человечности. Blender является первым чатботом, которые совмещает в себе такие навыки общения, как эмпатия, знания и личность. Нейросеть в основе чатбота имеет 9.4 миллиарда параметров. Это в 3.6 раз больше, чем предыдущая самая крупная диалоговая система. Исследователи опубликовали полную модель, код и сетап для тестирования модели. Детали обучения чатбота Масштабирование Разработчики предобучали Transformer с 9.4 миллиардами параметров на данных диалогов. Обучающие данные состояли из 1.5 миллиардов извлеченных разговоров. Чтобы оптимизировать обучение модели, исследователи параллелизовали вычисления с помощью column-wise model parallelism. Такой подход позволяет разбить нейросеть на мелкие куски. Обучение навыкам Исследователи ввели задачу Blended Skill Talk (BST) для обучения и тестирования навыков модели. BST состоит из следующих навыков:
Объединение этих навыков является комплексной задачей, потому что системы должны уметь переключаться между задачами, когда это необходимо. Если пользователь переходит от шуточного тона к серьезному, модель должна уметь подстраиваться. Исследователи нашли, что дообучение модели на BST значительно повлияло на качество модели. Стратегии генерации Обучение нейросетей обычно происходит через минимизацию перплексии, которая измеряет, как хорошо модель предсказывает следующее слово. Исследователи нашли, что длина реплики пользователя заметно влияет на качество содержания ответов. Если реплика короткая, ответы унылые и отражают отсутствие интереса. Если слишком длинные, чатбот теряет фокус. Телеграм: t.me/ainewsline Источник: neurohive.io Комментарии: |
|