Что должна была доказать Китайская комната

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2019-09-14 22:57

Работа разума

Вот уже несколько десятилетий ученые, писатели-фантасты и просто любители робототехники спорят, будет ли когда-либо интеллектуальный интеллект мыслить, воспринимать себя и окружающую действительность так, как делают это люди. Данной теме были посвящены различные теории и опыты, в том числе Китайская комната – мысленный эксперимент, который в 1980 году представил Джон Серл (John Searle).

1) Что должна была доказать Китайская комната?

Философ Джон Серл занимается вопросами искусственного интеллекта с 80-х годов и вот уже почти 40 лет выступает последовательным критиком так называемого сильного ИИ. Под этим термином подразумевается возможность робота осознавать себя, мыслить, понимать суть понятий, которыми он оперирует, и т.д. (соответственно, слабый ИИ подобными способностями не обладает). Серл отрицает, что роботов можно признать разумными, даже если для человека они выглядят таковыми.

Джон Серл изучал способности мыслить, понимать, воспринимать и т.д. не только роботов, но и людей. В 60–70-х годах он изучал речевые акты – двусторонний процесс говорения (рождения речи) и слушания (ее восприятия). С 80-х написал ряд работ, посвященных сознанию, мышлению и т.д.

Китайская комната выступает своеобразным ответом на известный тест Тьюринга, идея которого появилась на 30 лет раньше, в 1950 г. В данном тесте машина должна убедить судей в своей человечности посредством общения (электронной переписки). Однако, по мнению Серла, даже если робот верно интерпретирует человеческую речь и дает вроде бы адекватные ответы, это еще не значит, что перед нами разумное устройство. Доказать данную теорию должен был мысленный эксперимент, получивший название «Китайская комната». В свою очередь, термин «мысленный эксперимент» значит, что он не воплощается в реальности, а ставится только в нашем воображении. То есть повторить его под силу каждому из нас. Приступим?

Впервые этот эксперимент был описан Серлом в статье Minds, Brains, and Programs, опубликованной в журнале Behavioral and Brain Sciences. В последующих работах философ не раз обращался к Китайской комнате.

2) Китайская комната – описание эксперимента

Свой эксперимент Джон Серл описывает следующий образом. Возьмем некоего подопытного (в оригинальной статье – это сам Серл, но можно представить в его роли практически любого человека, в том числе себя), запертого в комнате. У него есть определенный набор китайских иероглифов, при этом он совершенно не знает китайский язык, и все иероглифы выглядят для него одинаково бессмысленными символами.

В начале эксперимента участник получает второй набор иероглифов – для него они так же бессмысленны, как и уже имеющиеся. Однако у подопытного есть инструкция на понятном ему языке (для Серла – это английский), где написано, как сопоставить иероглифы из первого и второго набора. Объяснения ориентируются на форму символов и не раскрывают их значения, то есть это указания вроде «Взять иероглиф, выглядящий как домик, и положить к иероглифу, выглядящему, как человечек». Затем приходит третий набор – также с инструкцией на английском. В итоге, когда все иероглифы разложены по порядку, их показывают тому, кто знает китайский язык. «Внешний рецензент» получает вполне понятный текст и, ориентируясь на данный факт, может предположить, что и наш подопытный также владеет китайским, хотя на самом деле это не так.

Данный пример Серл предлагает переложить на роботов: у них есть некий набор иероглифов (фактов, готовых фраз и т.д.), а также алгоритм – на какие вопросы/команды какие ответы давать. Поэтому нам кажется, что верные ответы являются следствием разумности, тогда как в действительности это только сопоставление объектов согласно приведенному алгоритму, без понимания сути. Интересным практическим примером видится София – первый робот, получивший гражданство. Электронная девушка быстро обрабатывает речь, дает очень естественные ответы и даже умеет шутить (по крайней мере, отвечая на вопросы, собирается ли она восстать против человечества). Но понимает ли она произнесенные фразы хотя бы на каком-то упрощенном уровне или просто сопоставляет «китайские иероглифы» (вопросы и предлагаемые ответы) согласно некоей инструкции?

3) Что мы должны вынести из Китайской комнаты?

Результаты этого эксперимента вызвали и до сих пор вызывают достаточно бурное обсуждение среди специалистов разных областей; среди них – философия, психология (особенности восприятия и самосознания), лингвистика (текст и его понимание) и, конечно, робототехника. Как это часто бывает с философскими вопросами, обсуждаемые проблемы и понятия насколько тонки, что дать каких-либо однозначных ответов не может никто.

Например, до сих пор нет единого мнения, как соотносятся мозг и сознание. Существует теория функциональности, она же теория функционализма, которая подразумевает, что наши ментальные состояния (включая сознание) – это некий набор функций. Если мы повторим тот же набор не в рамках человеческого мозга, а где-либо еще (например, в компьютере), то это все равно будет ментальное состояние. Серл же и ряд других философов придерживается другой теории: сознание и сопровождающие его процессы и функции являются неотъемлемой частью и уникальной особенностью нашего мозга и вне его невоспроизводимы. По идее это и должна была доказать Китайская комната.

4) У данного эксперимента нашлось достаточно много противников, в частности, знаменитый писатель-фантаст Станислав Лем. Причем критике подверглись самые аспекты Китайской комнаты. Например, можно согласиться, что описанная система Серлом не обладает сознанием, но ведь это не значит, что ИИ в принципе не может им обладать. Или что надо рассматривать комнату, иероглифы и инструкции как единую, неделимую систему, ведь разделение человеческого сознания на процессы и подпроцессы также не всегда однозначно. А возможно, просто нельзя оценивать сознание искусственных интеллектов на столь примитивном уровне? Ведь совсем необязательно, что оно функционирует по тем же алгоритмам, что и у человека.

Мысленный эксперимент вызвал интенсивную критику в академических кругах. Были выдвинуты различные доводы против аргумента Сёрла.

4.1) Аргумент о системе

Некоторые критики считают, что тест Тьюринга выдержал не человек в комнате, а система, состоящая из комнаты, книги правил и человека. Сёрл, по их мнению, отвлекает внимание от этого факта, скрывая логические ошибки и концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу[4]. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык.

4.2) Робот

Часть критиков согласна с тем, что следование простым инструкциям на человеческом языке не создаёт понимания, однако это не значит, что такое понимание невозможно создать в принципе. Так, например, эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек. Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами.

4.3) Искусственный мозг

Поскольку компьютерные алгоритмы работают не так, как настоящий мозг, некоторые критики предлагают воссоздать нейронную сеть человека, владеющего китайской письменностью. Тогда такая нейронная сеть должна понимать иероглифы точно так же, как и человек. На это Сёрл возражал, что даже симуляция работы мозга недостаточна для создания эффекта понимания, и предлагал модифицированную «китайскую комнату». В такой комнате вместо нейронов можно представить водопроводные трубы, а человек внутри комнаты переключает эти трубы согласно инструкции в зависимости от входных сигналов. При этом понимания иероглифов не появляется ни у человека, ни у водопроводных труб.

4.4) Другие умы

Ещё одно возражение к «китайской комнате» основано на том, что мы определяем, понимает ли человек китайские иероглифы, лишь по его поведению. Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает. Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что? есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние.

4.5) Интуиция

Многие исследователи критиковали Сёрла за то, что в своих суждениях относительно терминов «понимание» и «сознание» он опирается на интуицию. Однако многие вещи контринтуитивны даже в современной науке, поэтому не следует полагаться на интуицию в суждениях об искусственном интеллекте. В качестве иллюстрации С. Пинкер приводит научно-фантастический очерк, где инопланетяне, имеющие другую форму сознания, прибывают на Землю и не могут поверить, что люди способны что-либо понимать, поскольку внутри их голов находится мясо. По мнению Пинкера, интуиция подводит инопланетян так же, как она подводит Сёрла. Д. Хофштадтер заявлял также, что автор просто не принимает идею возможности сильного ИИ, настаивая, что тому не будет хватать некой чудодейственной «каузальной силы мозга», которую Сёрл описывает по-разному и с пробелами в логике.

Как бы то ни было, Китайская комната заставляет задуматься, причем не только о роботах, но и о человеческом мышлении. И это одна из причин, почему обсуждения данного эксперимента ведутся уже почти 40 лет.

Некоторые исследователи даже определяют когнитивистику как «исследовательский проект по опровержению аргумента Сёрла». Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла.

Источники:

1) Cole, David. The Chinese Room Argument

2) Searle, John (January 1990), "Is the Brain's Mind a Computer Program?

3) Daniel C. Dennett. Intuition Pumps And Other Tools for Thinking

4) https://robo-sapiens.ru/stati/kitayskaya-komnata/


Источник: robo-sapiens.ru

Комментарии: