Фундаментальная критика ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Существует мнение, что искусственный интеллект в «сильном» смысле невозможен в принципе. Классическим обоснованием подобной позиции является мысленный эксперимент «китайская комната».

Китайская комната

В качестве аргумента против «сильного ИИ», Сёрл (Searle, 1983; Hauser, 2020) просит нас представить себя англоязычным человеком, запертым в комнате, и получившим большую «партию» китайской письменности плюс вторую «партию» китайской письменности, а также набор правил на английском языке для соотношения второй партии с первой. Правила соотносят один набор формальных символов с другим набором формальных символов; «формальный» (или «синтаксический») означает, что мы можем идентифицировать символы полностью по их форме. Третья партия китайских символов и дополнительные инструкции на английском языке позволяют соотносить элементы этой третьей партии с элементами первых двух партий и дают инструкции, таким образом, возвращать в ответ определенные виды китайских символов с определенными формами. Те, кто дают нам символы, называют первую партию «прописями», вторую партию они называют «историей», и третью партию они называют «вопросами»; символы, которые мы возвращаем они называют «ответами на вопросы». Набор правил на английском языке они называют «программой»: мы сами ничего из этого не знаем.

Тем не менее, мы настолько хорошо следуем инструкциям, что с точки зрения человека, находящегося за пределами комнаты наши ответы абсолютно неотличимы от ответов говорящего на китайском языке. Просто глядя на наши ответы, никто не может сказать, что мы не говорим ни слова по-китайски.

Но, представляя себя человеком в комнате, Сёрл думает, что: «совершенно очевидно, что я не понимаю ни слова из китайских историй. У меня есть входы и выходы, которые неотличимы от настоящих для носителя китайского языка, и я могу иметь любую формальную программу, которая вам нравится, но я все равно ничего не понимаю».

Формальное опровержение

Кибернетик Питер Кугель в своей заметке «Китайская комната — это фокус» (Kugel, 2004) указывает на формальную проблему эксперимента. В поддержку своего заявления Сёрл просит нас представить себе «китайскую комнату», которая

имитирует то, что могут сделать компьютеры,

чтобы создать видимость понимания китайского языка,

не имея внутри ничего, что соответствовало бы «пониманию».

Большинство из тех, кто выступал против аргумента Сёрла — а их было много — приняли (1) и (2) и попытались найти «понимание» в этой комнате. Это ошибка, потому что Серл прав: понимания нет.

Понимание не потому отсутствует, что компьютеры не могут его иметь. Оно отсутствует, потому что утверждение (1) — что комната может делать все, что могут компьютеры — ложно. Имитация комнатой компьютера настолько плоха, что утверждение (2) — что комната может сделать хорошо притворяться свободно владеющей китайским языком — тоже ложно.

Чтобы увидеть, насколько ограничено её предполагаемое понимание китайского языка, рассмотрим следующий диалог на китайском языке, переведенный на русский (английский в источнике):

Интервьюер: «С этого момента я буду использовать слово «плохой» в смысле «хороший», как это делается на современном американском сленге. Поняла?»

Комната: «Да.»

Интервьюер: «Ты бы сказала, что пятерка — плохая оценка?»

Комната: «Нет.»

Причина, по которой комната не может справиться с подобными вещами, заключается в том, что она не может записать ничего из того, что может прочитать ее пользователь (Сёрл). Согласно Сёрлу, он может писать только китайские иероглифы, которые Сёрл не может прочитать. Поэтому он не может запомнить такие вещи, как данное интервьюером новое определение «плохого».

Для дальнейшего рассмотрения представим, что формальное опровержение преодолено соответствующей модификацией эксперимента. Вместе с публикацией «китайской комнаты», Сёрл сразу приводит свои ответы на несколько возможных опровержений. Нам достаточно рассмотреть аргумент, называемым «аргументом о системе».

Опровержение по существу

«Аргумент о системе» предполагает, что пример китайской комнаты побуждает нас сосредоточиться на неправильном агенте: мыслительный эксперимент заставляет нас перепутать потенциального субъекта, обладающего умственными способностями, с человеком, находящимся в комнате. Системный ответ утверждает, что «человек, запертый в комнате, не понимает истории», но утверждает, что «он просто часть целой системы, и система действительно понимает историю».

Основная реплика Сёрла на это заключается в том, чтобы «позволить индивидууму усвоить всю систему», запомнив правила и сценарий, а также выполняя поиск и другие операции в своей голове. «Все равно», — утверждает Сёрл, — «он ничего не понимает в китайском языке, как и в системе, потому что в системе нет ничего, чего не было бы в нём».

Тут автор хотел бы позволить себе высказать принципиальный аргумент против модифицированной таким образом «китайской комнаты» и, следовательно, всего аргумента Сёрла без обращения к источникам.

Действительно, формальная система может ответить описанным способом на некоторые вопросы интервьюера. Однако, Сёрл утверждает, что «модифицированная комната», т. е. человек, запомнивший все правила сопоставления, может пройти тест Тьюринга, а для этого должен ответить на любые вопросы.

Формальная система, способная на это, будет обладать сложностью, сравнимой со сложность человеческого мозга. Можно задаться следующим вопросом: чем, собственно, способность ответить на любые вопросы отличается от понимания языка. Такое определение «понимания» вполне соответствует тому, как один человек убеждается в понимании предмета другим человеком.

Теорема о невычислимости останова

Нам известно (Holloway, 2019), что существуют законы, ограничивающие формальные вычисления. Одним из самых фундаментальных ограничений является проблема останова, открытая Аланом Тьюрингом (Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, 1937). Проблема останова состоит в том, что нет программы, которая могла бы определить в общем случае, останавливается ли произвольная программа или нет. Если человеческий разум превышает предел, созданный задачей останова, то он является «оракулом останова». Тогда, по определению, человеческий разум не поддается вычислению.

Существует пара контраргументов к этой линии мысли:

Ничто не может быть оракулом останова.

Оракул останова может существовать, но человеческий разум не может им быть, потому что оракул останова может решить задачи, которые не может решить человек.

Даже если человеческий разум может быть оракулом останова, невозможно определить, является ли он таковым или нет.

Вот некоторые ответы:

Оракул останова логически возможен в виде бесконечной поисковой таблицы, в которой перечислены все конечные программы и их статус останова.

Мы можем убрать конечное и даже бесконечное число записей из таблицы поиска, но она остается невычислимой.

Человеческий разум гораздо более вероятен как «оракул останова», чем алгоритмический интеллект. С помощью достаточного количества тестов мы можем уменьшить вероятность в противном случае до произвольно малого числа. Точно так же, поскольку все программы требуют определенного объема памяти, если мы сможем продемонстрировать, что потенциальный диапазон действий одного разума требует программы, превышающей объем памяти вселенной, то мы знаем, что человеческий разум не может быть физической программой.

Есть ли доказательства из опыта, что люди являются оракулами останова? Одним из доказательств, доступных разработчикам программного обеспечения, является акт программирования. Для того чтобы создать качественное программное обеспечение, программисты должны с большой надежностью выбирать программы, которые будут останавливаться. Кроме того, никто еще не придумал, как полностью автоматизировать задачу программирования, хотя и предпринимались многочисленные попытки. Эти наблюдения легко объяснить, если человеческий разум является оракулом останова, но гораздо труднее объяснить, является ли разум вычислительным.

Следовательно, если человеческий разум преодолевает ограничения алгоритмов, то разум не может быть алгоритмом, а искусственный интеллект невозможен. Пара свидетельств на этот счет — проблемы в разработке программного обеспечения и история человеческих инноваций.

Следует заметить, однако, что мы уже рассмотрели выше, что Тьюринг-подобные вычисления, рассматриваемые ВТР, не являются эквивалентными машине Тьюринга в математическом смысле. Кроме того, способность человека достаточно надежно определять статус останова программы не означает формальную разрешимость этой задачи человеческим мозгом.

Критика современного состояния ИИ

В данном разделе представлена некоторая критика искусственного интеллекта, направленная на недостаточно исследованные к настоящему времени аспекты, не отрицая в то же время принципиальной достижимости ИИ.

Грамматика и эмоции

Дэвид Мамфорд (Mumford, 2019) пишет, что несмотря на все успехи нейронных сетей, есть еще один «холм, на который нужно подняться». Манфорд предполагает, что любого рода мышление требует грамматики. Это означает, что ваш разум обнаруживает в мире закономерности, которые повторяются, хотя и не обязательно точно. Это могут быть зрительные образы во внешнем виде объектов, например, точки в линии или положение глаз на лице, или это могут быть слова в речи или простые действия, например, нажатие на газ при вождении, или даже абстрактные идеи, такие как лояльность. Независимо от того, какой вид наблюдения или мысли несет в себе закономерность, вы ожидаете, что она будет повторяться, чтобы ее можно было использовать для понимания новых ситуаций. нейронная сеть не находит новых закономерностей. Она работает как черный ящик и ничего не делает, кроме как наклеивает ярлык на свой вход, например, говоря вам: «это изображение выглядит так, как будто здесь есть лицо». При поиске лица не говорится: «сначала я искал глаза, а потом понял, где должна быть остальная часть лица». Тут только говорится, к какому выводу она пришла. Нам нужны алгоритмы, которые выводят: «Я нахожу новый шаблон в большинстве моих данных, давайте дадим ему имя». Насколько трудно подняться на этот холм — вопрос открытый, но Мамфорд уверен, что мы не сможем приблизиться к человеческому разуму, пока проблема не будет решена.

По всей видимости, все люди распознают почти одни и те же первичные (свои) и вторичные эмоции (когда они возникают у наших друзей), и искусственный интеллект тоже должен уметь это делать. Без этого анализа компьютерные ученые будут «барахтаться в программировании своих роботов» в попытках имитировать реакции на эмоции при взаимодействии с человеком, другими словами, создать важнейший навык, который мы должны назвать искусственной эмпатией. Мамфорд идет дальше и утверждает, что, если мы хотим, чтобы ИИ действительно обладал сознанием, он должен, как считает Мамфорд, в какой-то степени, иметь эмоции сам.

Иллюзии нейронных сетей

Глубокие нейронные сети в последнее время достигают современного уровня производительности при решении различных задач распознавания образов, в частности, при решении проблем визуальной классификации. Учитывая, что нейронные сети теперь способны классифицировать объекты на изображениях с почти человеческим уровнем производительности, естественно, возникают вопросы о том, какие различия остаются между компьютерным и человеческим зрением. Недавнее исследование показало, что изменение изображения незаметным для человека способом может привести к тому, что нейронная сеть назовет изображение чем-то совершенно другим.

В своей статье (Nguyen, Yosinski, & Clune, 2014) Ан Нгуен, Джейсон Йосински и Джефф Клин представляют специально разработанные изображения, которые не могут быть распознаны человеком, но современная нейронная сеть, обученная в библиотеке изображений ImageNet, с более, чем 99,6% уверенностью считает, что это знакомый объект. Этот результат подчеркивает различия между тем, как DNN и человек распознают объекты.

Однако, авторы высказали гипотезу о том, что «обманные изображения» на самом деле могут считаться искусством, и подали подборку на студенческий художественный конкурс университет Вайоминга, на который было принято всего 35% представленных работ. Изображения не только были приняты, но и вошли в число 20% работ, удостоенных награды.

Выводы

В своей обзорной работе Челла и Манцотти (Manzotti & Chella, 2018) подводят обзор проблем, с которыми сталкиваются «классические» (доброе старомодное искусственное сознание — Good Old-Fashioned Artificial Consciousness, GOFAC) теории сознания при соприкосновении с сильным искусственным интеллектом.

Самая сложная проблема для сознания робота — это возможность роботу, иметь реальные субъективные переживания. Однако, многие подходы на современном этапе развития роботизированного сознания обладают набором предвзятых предпосылок, которые используются для исследования то, что можно назвать «старым добрым искусственным сознанием».

GOFAC подразумевает физический мир, в котором сознание появляется как результат определенного промежуточного уровня. Теория, основанная на идее, что сознание возникает из промежуточного уровня, должна объяснить, что это за уровень и почему оно производит сознание. Однако, объяснение является проблематичным, потому что, вместо того, чтобы объяснять сознание, теория вводит новый уровень как промежуточную сущность, которая только кажется менее проблематичной. Промежуточный уровень, напротив, является деструктивным средством объяснения, поскольку он добавляет две новые проблемы: характеристики нового уровня и его связь с сознанием. Такой подход можно назвать «заблуждением промежуточного уровня», и он кажется привлекательным, потому что вводимый уровень кажется менее пугающим и более знакомым, чем само сознание.

Поиск сознания внутри физического мира необходим, когда целью является проектирование сознательного робота. У робота нет других ресурсов, кроме тех, которые предлагает физический мир. Это может показаться банальностью, но все упомянутые в третьей части подходы работают по этому принципу. Поэтому любые жизнеспособные решения потребуют отступления от предпосылки, которая до сих пор препятствовала какому-либо прогрессу — т. е. от «трудной проблемы» с общим убеждением, что сознание — это нечто отличное от физического мира. Мы должны пересмотреть тот вопрос с самого начала.

Представляется возможным сформировать радикальную альтернативу, которая проистекает из отхода от некорректных теоретических рамок, порожденных принятием «трудной проблемы сознания». Во-первых, следует считать, что сознание должно быть таким же, как и все остальные окружающие физические свойства, тем, что можно измерить, наблюдать. Более того, сознание является причинно-следственным и расположено в пространстве-времени. Наконец, оно сделано из материи или энергии. Эти предпосылки являются не более чем повторением предположения, что сознание является физическим. Фактически, всё, что является физическим, — пространственно-временное, причинно-следственное, состоит из материи/энергии и наблюдаемо.

В настоящее время развитие теорий ИИ и некоторых теорий сознания идет рука об руку. Однако мы видим, что принятие гипотезы «сильного» искусственного интеллекта приводит к несовместимости с ним многих существующих теорий сознания, в особенности идеалистических.

Несмотря на то, что вопрос о возможности «сильного» искусственного интеллекта остается открытым, основные аргументы против него, такие как «китайская комната», все больше уступают под давлением новых разработок в области «умных машин».

Комментарии: