Кажется, пора переходить на «вы»

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В феврале этого года группа учёных из Университета Васэда (Япония) выяснила, что невежливые вопросы снижают качество ответов больших лингвистических моделей вроде ChatGPT.

Для эксперимента учёные писали вежливые и невежливые промпты на английском, китайском и японском языках. В качестве универсальных лингвистических моделей использовали GPT-4 и GPT-3.5, но также для запросов на английском обращались к Llama2-70B, на китайском — к ChatGLM3 и на японском — к Swallow-70B.

Тематика промптов касалась переводов, генерации текста и вопросов на знание различных фактов, в том числе культурных.

Оценивали результаты путём сравнения точности ответов на вежливые и не очень промпты. Непосредственно вежливость запросов оценивали по шкале от 1 до 8, где 1 — грубое обращение, а 8 — торжественное, подобострастное.

Оказалось, что грубые запросы ухудшают результат. Кроме того, лучше других с задачами при вежливых вопросах справлялись GPT-4 и GPT-3.5. Модель ChatGLM3 для китайского языка давала качественные ответы практически исключительно на вежливые запросы, неверно интерпретируя грубые промпты или вообще игнорируя их. Японская модель Swallow-70B также давала более точные и полные ответы при использовании вежливых запросов.

Летом этого года лингвист Александр Пиперски провёл похожий эксперимент на русском. Он обращался к ChatGPT-4 в вежливой и не очень форме с просьбой решить четыре задачи и дать к ним пояснения. Так вот, в ответ на вежливый запрос чат выдал правильные решения для всех четырёх задач, а при невежливом обращении решение двух задач слил.


Источник: vk.com

Комментарии: