Эксперимент «Китайская Комната», или почему ИИ на самом деле ничего не понимает?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2023-05-06 12:55

Философия ИИ

Вот уже несколько десятилетий ученые, писатели-фантасты и просто любители робототехники спорят, будет ли когда-либо ИИ мыслить, воспринимать себя и окружающую действительность так, как делают это люди. А может, он уже это делает? Данной теме были посвящены различные теории и опыты, в том числе «Китайская комната» – мысленный эксперимент, который в 1980 году представил Джон Серл.

Философ Джон Серл уже почти 40 лет критикует идею сильного ИИ, который может осознавать себя и мыслить. Серл утверждает, что роботы не могут быть разумными, даже если кажутся таковыми для людей.

Описание эксперимента

Возьмем некоего подопытного (Серл проделал эксперимент на себе), запертого в комнате. У него есть определенный набор китайских иероглифов, при этом он совершенно не знает китайский язык, и все иероглифы выглядят для него одинаково бессмысленными символами.

В эксперименте он сопоставил бессмысленные иероглифы из двух наборов, следуя инструкции на понятном ему языке (для Серла – это английский). Объяснения ориентируются на форму символов и не раскрывают их значения, то есть это указания вроде «Взять иероглиф, выглядящий как домик, и положить к иероглифу, выглядящему, как человечек». Затем он делает то же с третьим набором. В итоге, знаток китайского видит понятный текст и ошибочно предполагает, что участник знает китайский язык.

Данный пример Серл предлагает переложить на роботов: у них есть набор информации и алгоритмы для ответов на вопросы, что может создать иллюзию разумности. Например, робот София – первый робот, получивший гражданство, обрабатывает речь, естественно отвечает, и даже умеет шутить, но вопрос остается прежним: понимает ли она смысл или просто просто сопоставляет «китайские иероглифы» согласно некоей инструкции?

Что мы должны вынести из «Китайской комнаты»?

До сих пор нет единого мнения, как соотносятся мозг и сознание. Существует теория функциональности, она же теория функционализма, которая подразумевает, что наши ментальные состояния (включая сознание) – это некий набор функций.

Повторив набор функций вне мозга (например, в компьютере), возникает ментальное состояние. Однако Серл и другие философы считают сознание уникальным свойством мозга, невоспроизводимым вне него, что демонстрирует эксперимент «Китайская комната».


Источник: vk.com

Комментарии: