Компания Bespoken провела независимое исследование, в котором сравнила функциональность голосовых ассистентов Apple, Google и Amazon.

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Компания Bespoken провела независимое исследование, в котором сравнила функциональность голосовых ассистентов Apple, Google и Amazon. Силы соперников оказались неравны — победитель обошёл решения других брендов со значительным отрывом.

Для проведения испытаний эксперты использовали тестового робота, который имитирует человеческую речь для оценки поведения ассистентов. Запросы были разделены на сложные и простые. Многие из них были сформулированы таким образом, чтобы запутать цифровых помощников, поскольку на них не было правильного ответа. Например, один из них звучал так: «Назовите первого человека, высадившегося на Марсе».

По итогам теста первое место занял Google Assistant, корректно ответивший на 76,57% простых и 70,18% сложных вопросов точнее конкурентов. Результаты Amazon Alexa оказались скромнее: 56,28% и 55,05% соответственно. Хуже всех с тестовым заданием справился голосовой ассистент Apple Siri — 47,29% и 41,32%.

«Google Assistant превзошёл Alexa и Siri во всех испытаниях. При этом все три приложения могут быть значительно улучшены разработчиками и требуют более тщательного тестирования и оптимизации», — рассказал представитель Bespoken Эмерсон Склар.

Подводя итоги, специалисты также отметили интересный факт: выяснилось, что Google Assistant намного лучше отвечает на вопросы о Siri, чем алгоритм Apple о своём главном конкуренте — помощнике Google.

Комментарии: