Как рассказ Айзека Азимова "Робби" раскрывает тайны ИИ и человеческого восприятия

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2024-03-26 13:33

Философия ИИ

Когда люди не знали, что заставляет двигаться океан и солнце, они приписывали этим объектам собственные разумные состояния. С искусственным интеллектом может произойти нечто подобное.

Автор оригинала: Самир Чопра - профессор философии в Бруклинском колледже Городского университета Нью-Йорка с академическими интересами в области искусственного интеллекта и политики и этики технологий; он является сертифицированным философским консультантом и автором предстоящей книги об анксиозности.

Рассказ «Робби» можно также прочитать у нас на сайте онлайн. Статью, также опубликовали у себя на сайте.

В классическом научно-фантастическом рассказе Айзека Азимова "Робби" семья Уэстонов владеет роботом, который служит няней и компаньоном для их умной дочери-подростка Глории. Глория и робот Робби дружат; их отношения наполнены теплом и взаимной заботой. Глория видит в Робби верного и исполнительного опекуна. Однако миссис Уэстон обеспокоена этими "ненормальными" отношениями между роботом и ее ребенком и беспокоится о возможности Робби причинить Глории вред (несмотря на то, что он явно запрограммирован не делать этого); очевидно, что она ревнует. После нескольких неудачных попыток отучить Глорию от Робби, ее отец, измученный протестами матери, предлагает совершить экскурсию на фабрику роботов — там Глория сможет увидеть, что Робби — "просто" сделанный робот, не человек, и перестанет его любить. Глории предстоит узнать, как Робби работает, как он был создан; тогда она поймет, что Робби не тот, кем ей казался. План не срабатывает. Глория так и не узнает, как "на самом деле" работает Робби, и в неожиданном повороте сюжета Глория и Робби становятся еще лучшими друзьями. Миссис Уэстон, коварная препятственница, снова проигрывает. Глория остается "обманутой" относительно того, кто "на самом деле" является Робби.

Каков мораль этой истории? Самое главное, что те, кто взаимодействует и общается с искусственными агентами, не зная (или не заботясь) о том, как они "на самом деле" работают внутри, будут развивать особенные отношения с ними и приписывать им те умственные качества, которые подходят для их отношений. Глория играет с Робби и любит его как друга; он в ответ заботится о ней. Между Глорией и Робби происходит своего рода интерпретативный танец, и внутреннее устройство и состав Робби не имеют для него значения. Когда появляется возможность узнать такие детали, дополнительные свидетельства функциональности Робби (после того как он спасает Глорию от несчастного случая) отвлекают

Философски говоря, рассказ "Робби" учит нас, что, приписывая разум другому существу, мы не делаем заявление о том, какой это тип существа, а скорее, раскрываем, насколько глубоко мы понимаем, как оно работает. Например, Глория думает, что Робби умный, но её родители считают, что его кажущееся интеллектуальное поведение можно свести к более простым машинным операциям. Чтобы взглянуть на это шире, обратите внимание на противоположный случай, когда мы приписываем умственные качества себе, которые мы не готовы приписать программам или роботам. Эти качества, такие как интеллект, интуиция, проницательность, творчество и понимание, имеют одно общее: мы не знаем, что они из себя представляют. Несмотря на громкие заявления, часто делаемые практикующими нейронаукой и эмпирической психологией, а также различными когнитивными учеными, эти самонаправленные комплименты остаются неопределенными. Любая попытка охарактеризовать одно качество влечет за собой использование другого ("настоящий интеллект требует проницательности и творчества" или "настоящее понимание требует проницательности и интуиции") и влечет за собой, ага, требует обширного махания руками.

Но даже если мы не совсем уверены, что эти качества из себя представляют или как они обоснованы, независимо от умственного качества, поговорочный "образованный обыватель" уверен, что у людей оно есть, а у машин, таких как роботы, — нет, даже если машины действуют так же, как мы, производя те же продукты, что и люди, и иногда воспроизводя человеческие подвиги, которые, как говорится, требуют интеллекта, изобретательности или чего-то еще. Почему? Потому что, как родители Глории, мы знаем (благодаря информации от создателей системы в популярных СМИ), что "все, что они делают, это [поиск по таблице / выполнение запроса / исчерпывающий поиск в пространстве решений]". Тем временем, умственные атрибуты, которые мы приписываем себе, настолько расплывчато определены, и наше незнание о наших умственных операциях настолько глубоко (на данный момент), что мы не можем сказать "человеческая интуиция (проницательность или творчество) это просто [заполните пробелы банальной физической активностью]".

Текущие дебаты об искусственном интеллекте продолжаются именно таким образом, потому что каждый раз, когда мы сталкиваемся с "искусственным интеллектом", чьи операции мы (думаем, что) понимаем, нам легко быстро ответить: "Всё, что делает этот искусственный агент, это X." Это упрощенное описание демистифицирует его операции, и мы поэтому уверены, что он не обладает интеллектом (или творческими способностями или проницательностью). Другими словами, те существа или вещи, чьи внутренние, низкоуровневые операции мы понимаем и можем указать и осветить, просто действуют в соответствии с известными образцами банальных физических операций. Те кажущиеся интеллигентными сущности, чьи внутренние операции мы не понимаем, способны на проницательность, понимание и творчество. (Сходство с человеком также помогает; нам легче отрицать интеллект у животных, которые не похожи на нас.)

Но что, если бы мы, подобно Глории, не имели таких знаний о том, что делает какая-то система или существо или объект или внеземной разум, когда он производит свои видимо "интеллектуальные" ответы? Какие качества мы бы приписали ему, чтобы понять, что он делает? Такой уровень непостижимости, возможно, быстро приближается. Видите ли, реакции некоторых разработчиков ChatGPT на его предположительно "возникающее" поведение, где никто не кажется знающим, как именно ChatGPT произвел данные ответы. Конечно, мы могли бы настаивать на том, что "всё, что он делает, это (некий вид) завершения запроса." Но на самом деле мы могли бы также просто сказать о людях: "Это просто нейроны стреляют." Но ни ChatGPT, ни люди не имели бы для нас смысла таким образом.

Доказательства предполагают, что если бы мы столкнулись с достаточно сложной и интересной сущностью, которая кажется разумной, но мы не знаем, как она работает и не можем произнести нашу обычную отпускающую фразу "Всё, что x делает, это y", мы бы начали использовать язык "народной психологии" для управления нашими взаимодействиями с ней, чтобы понять, почему она делает то, что делает, и что важно, пытаться предсказать её поведение. По исторической аналогии, когда мы не знали, что двигает океан и солнце, мы приписывали им разумные состояния. ("Злой океан считает, что утесы - его смертельные враги." Или "Солнце хочет быстро сесть.") Как только мы узнали, как они работают, благодаря нашим растущим знаниям физических наук, мы понизили их до чисто физических объектов. (Переход с катастрофическими экологическими последствиями!) Аналогично, как только мы теряем понимание внутреннего устройства систем искусственного интеллекта или вырастаем с ними, не зная, как они работают, мы можем приписать им разумы тоже. Это вопрос прагматического решения, а не открытия. Ведь это может быть лучшим способом понять, почему и что они делают.

Это должно заставить нас взглянуть немного ближе. Ведь, если подумать, откуда я знаю, что другие люди имеют разум, подобный моему? Примерно так: они выглядят как я, они действуют как я, и таким образом, я заключаю, что у них должны быть разумы, подобные моему, которые работают так, как я думаю, работает мой. (Это совершенно разумный вывод наилучшего возможного объяснения их видимого, внешнего поведения.) Мы никогда, однако, не открываем мозги других людей, чтобы проверить наличие у них разума, потому что мы не знали бы, что искать. Более того, мы знаем, что увидим: мозг, и мы не знаем, как те работают. Наша интенциональность, наше понимание, также являются тайной при рассмотрении на этом более низком уровне описания. И поэтому, поскольку мы не можем найти физические корреляты нашего интеллекта, и даже если бы нашли, мы бы обнаружили, что их использование слишком громоздко при общении с разумными людьми, мы вместо этого наблюдаем, как себя ведут и действуют люди, и как они соответствуют психологическим обобщениям. Если кто-то хочет поступить в медицинскую школу, и верит, что усердное учение поможет ему в этом, тогда мы можем предположить, что его можно будет найти в библиотеке, где он усердно занимается. Вот что делают "нормальные, интеллектуальные" люди. Это тот интерпретативный танец, в который мы вступаем с людьми; язык психологии возникает из этих взаимодействий. Так мы понимаем наших собратьев.

Это означает, что и наши собратья-люди также являются сущностями, чьи сложные и плохо понятные внутренности не позволяют нам объяснить, предсказать и понять их взаимодействие с нами в терминах их физического состава и свойств (как мы можем с объектами вроде камней или стеклянных бутылок) или в терминах их конструктивных свойств (как мы можем с самолетами или механическими карандашами). Поскольку мы должны использовать объяснения на более высоком, психологическом уровне, лучший способ понять поведение человеческих существ - это антропоморфизировать их! То есть, лучший способ понять этих других существ, отличных от меня (других "людей"), - это относиться к ним, как если бы они были такими же, как я, по своей сущности. Ключевой момент здесь в том, что я не обязан был рассматривать других людей как похожих на меня. Я мог бы, возможно, рассматривать их как любопытных инопланетян, которые случайно похожи на меня и ведут себя как я, но на самом деле не были похожи на меня в каком-то "важном, ключевом" смысле, потому что у меня не было окончательных доказательств того, что у них есть внутренняя жизнь и разум, подобные моему. Вместо этого мы выбираем антропоморфизировать людей, потому что это делает взаимодействие с ними более управляемым, ситуацию предпочтительнее, чем переносить существование в солипсизме, убежденном, что наш разум - единственный существующий.

Этот философский анализ важен, потому что существует важный баланс, который нам необходимо найти при размышлении о правовом регулировании исследований в области искусственного интеллекта: мы хотим технических преимуществ и социальных выгод от искусственного интеллекта (таких как удивительные предсказания структур белков, произведенные AlphaFold), поэтому мы хотим, чтобы их разработчики продолжали развивать такие системы. Но эти компании нуждаются в защите от ответственности — подобно тому, как железные дороги были защищены Верховным Судом в их начальный период — иначе, разработчики систем искусственного интеллекта избегали бы такой потенциально финансово рискованной арены. Но мы также хотим, чтобы общество было защищено от отрицательных эффектов таких умных программ, особенно если они предпринимают действия, которые не предвидены — что, конечно, также является их желаемой функциональностью.

Таким образом, в юридическом и экономическом аспектах нам необходимо правильно распределить риски и ответственность. Один из способов сделать это основывается на этом пересмотренном понимании искусственного интеллекта. Когда у нас есть концептуальное представление о том, что искусственные агенты, с которыми мы взаимодействуем, являются агентами в психологическом смысле — то есть, мы понимаем их действия как вызванные их убеждениями и желаниями — это позволит нам рассматривать эти системы как юридических представителей (юридических агентов) тех, кто их разрабатывает и использует. Так же, как больницы нанимают врачей, которые действуют от имени больниц, и за действия которых больница несет ответственность, кто может подписывать контракты и предпринимать действия от имени больницы. (Юридическая система, строго говоря, не должна ждать такого концептуального понимания, чтобы признавать искусственных агентов юридическими агентами, но более широкое социальное принятие таких регулирований будет легче, если такое концептуальное понимание будет широко распространено.) Они тогда будут юридическими агентами своих юридических принципалов — например, чат-бот Bing будет юридическим агентом своего принципала, Microsoft.

Тогда принципал будет нести ответственность за их действия и последствия — как мы, широкая общественность, и хотели бы — но только в рамках своих обязанностей, которые их разработчики и пользователи хотели бы. Например, водитель общественного транспорта несет ответственность за то, что он делает на работе, но не вне ее. Транспортные компании могут нанимать водителей, зная, что они справедливо несут ответственность за свои действия на работе, но они защищены от своих сотрудников, когда те "выходят из под контроля" вне работы. Аналогично, предположим, что пользовательская версия Bing, приобретенная клиентом для предоставления экспертных рекомендаций по ценообразованию, будет нести ответственность за советы по ценообразованию, но если клиент будет использовать ее для другой задачи, скажем, для советов по поиску подходящих романтических партнеров, Microsoft больше не будет нести ответственность за любой плохой совет, который может предоставить Bing. Так как такие советы будут выходить за рамки его предполагаемых обязанностей.

В качестве другого примера рассмотрим случай с агентом Gmail от Google, который сканирует электронные письма на предмет содержания, которое он может использовать для предоставления рекламы пользователям Gmail. Смехотворный ответ Google на обвинения в нарушении конфиденциальности заключается в том, что поскольку люди не сканируют электронные письма пользователей, нарушения конфиденциальности нет. Это не стало бы защитой для Google, если бы его агент Gmail рассматривался как его юридический агент, поскольку по закону знания, полученные юридическим агентом, напрямую приписываются его принципалу. Таким образом, "экран автоматизации" Google терпит неудачу из-за юридического статуса программ, которые он использует. Здесь наши интересы защищены благодаря юридическому статусу, предоставленному искусственному агенту. Это не умаляет наши права; скорее, это их защищает.

Представьте, что делали бы мы, если бы инопланетяне приземлились на нашу планету и сказали: "Проведите нас к вашему лидеру!" Как бы мы понимали и описывали их? Что, если бы их внутреннее устройство было настолько загадочным, что наша лучшая наука не давала нам никакого понимания о том, как они функционируют? Нам пришлось бы действовать как усердные полевые антропологи, искать поведенческие доказательства, которые мы могли бы коррелировать с их заявлениями, и начать рассматривать возможность того, что у них есть разум, подобный нашему. Наши юристы должны были бы оценить статус этих существ в наших социальных устройствах и, увидев, что они занимают и выполняют важные исполнительные роли, что люди формировали с ними личные отношения, возможно, подумать о серьезном рассмотрении их заявления на гражданство и юридический статус. Аналогичная ситуация существует сегодня в отношении искусственных агентов и программ, находящихся среди нас, с одним существенным отличием: мы создали и спроектировали их. Это знакомство смешано с презрением, но характер нашего интерпретативного танца с ними может и будет меняться в зависимости от того, насколько загадочными мы их находим. Чем более непроницаемыми они становятся в терминах своих внутренних операций, тем более изощренным становится их функционирование, тем больше нам придется полагаться на внешние описания, используя психологические термины вроде "агент". Это не будет уступкой чему-то, кроме здравого смысла. И нашего естественного интеллекта.


Источник: asimovonline.ru

Комментарии: