Исследование: ChatGPT выдал ошибочные ответы на 52% вопросов по программированию |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-08-11 12:17 Согласно ещё одному исследованию, посвящённому работе ChatGPT, чат-бот OpenAI даёт неправильные ответы на вопросы по программированию более чем в половине случаев. При этом ответы бота выглядят настолько правдоподобными, что часть людей-участников эксперимента, оценивавших его ответы, игнорировала ошибки. Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта. Статья по итогам исследования «Кто ответит лучше? Углублённый анализ ChatGPT и Stack Overflow. Ответы на вопросы разработчиков программного обеспечения» опубликована на arXiv.org. Исследователи сообщили, что 52% ответов ChatGPT содержали ошибки, а 77% показались им слишком многословными. В The Register этот результат оценили «хуже, чем выбор ответа при помощи подбрасывания монетки». При этом в 39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными. И только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её. Учёные считают, что причина этого кроется в «авторитетном стиле» изложения ChatGPT: «вежливый язык, чёткость формулировок в стиле учебника и полнота ответов заставляют совершенно неправильные решения воспринимать как правильные». И даже когда в ответах чат-бота появились «вопиющие ошибки», двое из 12 добровольцев всё равно отдавали предпочтение рекомендациям бота, а не пользователя Stack Overflow. Лингвистический анализ ответов ChatGPT и Stack Overflow показал, что ответы бота «более формальны, выражают более аналитическое мышление, демонстрируют больше усилий для достижения целей и проявляют меньше негативных эмоций». Проанализировав тональность ответов, учёные пришли к выводу, что ответы ChatGPT выражают «более позитивные настроения», чем ответы пользователей Stack Overflow. Говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса». В публикации The Register проводится параллель между ростом популярности ChatGPT и снижением трафика Stack Overflow: с января 2022 года он терял 6% каждый месяц, а в марте падение составило 13,9%. При этом ежегодный опрос разработчиков Stack Overflow, в котором приняли участие 90 тыс. программистов, показал, что хотя 77% респондентов положительно относятся к инструментам искусственного интеллекта, только 42% доверяют их точности. Источник: habr.com Комментарии: |
|