Системы типа ChatGPT в принципе не способны отличить абсурд от правды - эксперт |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-02-13 13:54 Широко продвигаемый в настояще время ChatGPT это ни в коем случае не "разумная машина", как ее пытаются представить зачарованные этой технологией энтузиасты, а лишь модель работы с текстами, которая неспособна отличить абсурд от правды, рассказал 10 февраля специалист по системам обработки информации Федор Куликов. По словам ИТ-специалиста, системы GPT-3, построенные на определенной "языковой модели" работают на базе статистической обработки текста, то есть проще говоря на оценках вероятности появления каждого слова в конкретном месте. "Если я напишу "Доброе ", то вы можете закончить предложение, исходя из cвоего опыта, предположив, что наиболее вероятное слово дальше — это "утро". Ровно тем же занимается смартфон, когда мы печатаем текст и он подсказывает следующее слово — там тоже работает языковая модель, но очень примитивная", - рассказал Куликов. По его мнению, GPT-3 в первую очередь впечатляет своими масштабами — она огромна и натренирована на колосcальном корпусе текстов и, вероятно, безумно дорога в построении, обучении и эксплуатации. "Если в телефоне слова подсказывает "конура" от языковых моделей, то GPT-3 — это "Собор Святого Петра" от языковых моделей. Но концептуально и там, и там в основе — вероятность появления синтаксических конструкций в цепочке слов. И все. Ни о каком понимании этим чат-ботом семантики написанного, построения логических выводов и т.п. вещей, которые мы называем "разумом" — речи не идет", - пояснил эксперт. Он также отметил, что прямая аналогия с тем, что делает GPT-3, как и любая другая языкова модель — это знакомая нам с детства игра, когда взрослый читает стишок, а дети подставляют последнее слово, исходя из того, что подходит по рифме. "Вариация этой игры, когда ради шутки последняя рифма превращает стишок в абсурд, но дети все равно его подставляют, потому что не успели вникнуть в смысл, а мозг уже подсказал рифму. GPT-3 часто делает то же самое — в сети полно абсурдных текстов, ей сгенерированных. Только в случае GPT-3 "рифма" — это не одно подходящее по оканчанию и ударению слово, а произвольного размера текст, подходящий по теории вероятности", - говорит Куликов. Резюмируя, можно утверждать, что GPT-3 — это впечатляюще в инженером плане творение, самая грандиозная из существующих на текущий момент языковых моделей, у вариаций которой найдется огромное количество применений в нашей повседневной жизни. Но это не "разумная машина", как ее пытаются представить зачарованные этой технологией энтузиасты. История про студента, который "нагенерил" себе диплом через GPT-3 — это скорее про низкую планку дипломных работ, чем про гениальность модели, - уверен эксперт. Источник: rvs.su Комментарии: |
|