Почему сознательный ИИ - плохая, прескверная идея

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект развивается быстро. Теперь мы можем общаться с большими языковыми моделями, такими как ChatGPT, как если бы они были человеческими существами. Модели Vision могут создавать отмеченные наградами фотографии, а также убедительные видеозаписи событий, которые никогда не происходили. Эти системы, безусловно, становятся умнее, но являются ли они сознательными? Обладают ли они субъективным опытом, чувствами и сознательными убеждениями точно так же, как вы и я, а столы, стулья и карманные калькуляторы - нет? И если не сейчас, то когда — если вообще когда—нибудь - это может произойти?

В то время как некоторые исследователи предполагают, что сознательный ИИ уже близок, другие, включая меня, считают, что он остается далеко и, возможно, вообще невозможен. Но даже если это маловероятно, было бы неразумно полностью отвергать такую возможность. Перспектива искусственного сознания поднимает этические проблемы, проблемы безопасности и социальные проблемы, значительно выходящие за рамки тех, которые уже ставит искусственный интеллект. Важно отметить, что некоторые из этих проблем возникают даже тогда, когда системы искусственного интеллекта просто кажутся сознательными, даже если под капотом они представляют собой просто алгоритмы, жужжащие в субъективном забвении.

Мы думаем, что мы разумны, знаем, что обладаем сознанием, и поэтому предполагаем, что эти два понятия сочетаются.

Из-за этих опасений я подписал открытое письмо, подготовленное Ассоциацией математического изучения сознания (AMCS). Следуя по горячим следам широко разрекламированного призыва приостановить крупномасштабные исследования в области искусственного интеллекта, в письме утверждается, что для общественности, промышленности и руководящих органов жизненно важно понять, могут ли системы искусственного интеллекта стать сознательными и каким образом, рассмотреть последствия и устранить опасности. Примерно в то же время Анка Руэл из Стэнфордского университета и Гэри Маркус, ведущие специалисты по ИИ, разумно призвали к созданию глобального, нейтрального и некоммерческого “международного агентства по ИИ” для координации глобального регулирования технологий ИИ. Я думаю, что в сферу компетенции такого агентства должно входить и искусственное сознание. На прошлой неделе Джеффри Хинтон, один из пионеров искусственного интеллекта, ушел с поста главного научного сотрудника Google, чтобы присоединиться к хору обеспокоенных, изменив свое мнение о непосредственности и реальности угроз, исходящих от технологии, которую он помогал разрабатывать. На мой взгляд, нам не следует даже пытаться создавать сознательные машины.

Чтобы разобраться с этими проблемами — и внести ясность в запутанные и вызванные ажиотажем дебаты вокруг искусственного интеллекта и сознания - давайте начнем с некоторых определений. Во-первых, сознание. Хотя точные определения найти трудно, интуитивно мы все знаем, что такое сознание. Это то, что проходит под общим наркозом или когда мы погружаемся в сон без сновидений, и то, что возвращается, когда мы приходим в себя в послеоперационной палате или просыпаемся. И когда мы открываем глаза, наш мозг не просто обрабатывает визуальную информацию; существует совершенно другое измерение: наш разум наполнен светом, цветом, тенью и формами. Эмоции, мысли, убеждения, намерения — все это воспринимается нами по-особому.

Что касается интеллекта, то существует множество доступных определений, но все они подчеркивают способность гибко достигать целей в различных условиях. Вообще говоря, интеллект - это способность поступать правильно в нужное время.

Этих определений достаточно, чтобы напомнить нам о том, что сознание и интеллект очень различны. Быть разумными — какими нас считают люди — может дать нам новые способы быть сознательными, и некоторые формы человеческого и животного интеллекта могут требовать сознания, но базовые сознательные переживания, такие как удовольствие и боль, могут вообще не требовать большого уровня интеллекта на уровне вида.

Это различие важно, потому что многие в сообществе искусственного интеллекта и вокруг него предполагают, что сознание — это просто функция интеллекта: что по мере того, как машины становятся умнее, наступит момент, когда они также станут осознавать - когда у них включится внутренний свет. В марте прошлого года главный научный сотрудник OpenAI Илья Суцкевер написал в твиттере: “Возможно, сегодняшние большие языковые модели немного осознанны”. Вскоре после этого вице-президент Google по исследованиям Блейз Агуэра-и-Аркас предположил, что искусственный интеллект делает большие шаги к осознанию.

Эти предположения и внушения слабо обоснованы. Ни в коем случае не ясно, что система станет сознательной просто в силу того, что станет более разумной. Действительно, предположение о том, что сознание просто появится по мере того, как ИИ станет умнее, перекликается с неким видом человеческой исключительности, на которую нам не мешало бы обратить внимание. Мы думаем, что мы разумны, и мы знаем, что мы сознательны, поэтому мы предполагаем, что эти два понятия идут рука об руку.

Признание слабости этого предположения могло бы показаться утешительным, поскольку было бы меньше оснований думать, что сознательные машины уже не за горами. К сожалению, все не так просто. Даже если искусственный интеллект сам по себе не справится с задачей, инженеры могут предпринять преднамеренные попытки создать сознательные машины — действительно, некоторые из них уже делают это.

Здесь гораздо больше неопределенности. Хотя за последние 30 лет или около того были достигнуты значительные успехи в научном понимании сознания, многое остается неизвестным. Мое собственное мнение заключается в том, что сознание тесно связано с нашей природой как живых существ из плоти и крови. На этой картинке сознание не является результатом какого-то сложного алгоритма, запущенного на программном обеспечении мозга. Это воплощенный феномен, коренящийся в фундаментальном биологическом стремлении живых организмов продолжать жить. Если я прав, то перспектива сознательного ИИ остается обнадеживающе отдаленной.

Но я могу ошибаться, и другие теории гораздо менее ограничительны, причем некоторые предполагают, что сознание может возникнуть в компьютерах, которые обрабатывают информацию определенным образом или подключены в соответствии с определенной архитектурой. Если эти теории верны, то сознательный искусственный интеллект может быть неприятно близок — или, возможно, даже уже среди нас.

Это отсутствие консенсуса по поводу сознания, на фоне быстро меняющегося ландшафта искусственного интеллекта, подчеркивает необходимость дальнейших исследований самого сознания. Без принципиального и экспериментально подтвержденного понимания того, как возникает сознание, мы не сможем с уверенностью сказать, когда машина обладает им — или не обладает — им. В этой туманной ситуации искусственное сознание может даже возникнуть случайно, возможно, как побочный продукт какой-то другой функциональности, которую технологическая индустрия внедряет в следующее поколение своих алгоритмов.

Есть две основные причины, по которым создание искусственного сознания, намеренно или непреднамеренно, является очень плохой идеей. Во-первых, это может наделить системы искусственного интеллекта новыми полномочиями и возможностями, которые могут привести к хаосу, если их должным образом не спроектировать и не регулировать. Обеспечить, чтобы системы искусственного интеллекта действовали способами, совместимыми с четко определенными человеческими ценностями, и так достаточно сложно. С сознательным искусственным интеллектом это становится намного сложнее, поскольку у этих систем будут свои собственные интересы, а не только те, которые им задают люди.

Приписывание ИИ человекоподобного сознания приводит к неоправданным предположениям.

Вторая причина еще более тревожна: появление сознательных машин привнесет в мир огромный новый потенциал страданий, страданий, которые мы, возможно, даже не сможем распознать, и которые могут вспыхнуть в бесчисленных серверных фермах одним щелчком мыши. Как отметил немецкий философ Томас Метцингер, это ускорило бы беспрецедентный морально-этический кризис, потому что, как только что-то становится сознательным, мы несем ответственность за его благополучие, особенно если мы сами это создали. Проблема была не в том, что существо Франкенштейна ожило; дело было в том, что оно было сознательным и могло чувствовать.

Эти сценарии могут показаться диковинными, и это правда, что сознательный ИИ может быть очень далеко и, возможно, даже невозможен. Но последствия его появления достаточно тектонические, чтобы мы не могли игнорировать такую возможность. Конечно, никто не должен активно пытаться создать машинное сознание.

Если отбросить экзистенциальные проблемы, то есть более непосредственные опасности, с которыми приходится иметь дело, поскольку ИИ стал более похожим на человека в своем поведении. Они возникают, когда системы искусственного интеллекта создают у людей неизбежное впечатление, что они находятся в сознании, что бы ни происходило под капотом. Человеческая психология неуютно колеблется между антропоцентризмом — ставящим себя в центр всего — и антропоморфизмом — проецирующим на вещи человеческие качества на основе некоторого поверхностного сходства. Именно из-за последней тенденции у нас возникают проблемы с искусственным интеллектом.

Многие люди, включая некоторых экспертов, уже внедряют сложные когнитивные компетенции в системы искусственного интеллекта — в частности, в большие языковые модели — на основе в основном анекдотических и откровенно отрывочных данных. Но действительно ли эти модели что-нибудь понимают? Есть ли у них — как утверждалось — теория разума (способность приписывать психические состояния, такие как убеждения и желания, другим)? Утверждения о том, что языковые модели обладают этими возможностями, обычно основываются на наводящих на размышления фрагментах диалога. Такого рода доказательства на удивление слабы, как скажет вам любой психолог. Она еще слабее, когда мы пытаемся экстраполировать человеческий опыт на машину. Хотя люди должны были бы обладать развитыми когнитивными способностями, чтобы участвовать в некоторых диалогах, на которые сейчас способны чат-боты, тот же вывод не относится к ИИ. Языковые модели вполне могут быть способны участвовать в сложных лингвистических взаимодействиях, вообще ничего не понимая.

Отсутствие истинного понимания в языковых моделях проявляется в их склонности к конфабуляции: выдумывать всякую чепуху, извергая бессмыслицу уверенным языком. Когда я попросил GPT-4 Open-AI написать мою биографию, в нем было ошибочно указано, что я родился в Лондоне. Когда я попросил его повторить это с меньшим количеством ошибок в датах и местах, он еще больше запутался, сказав, что я родился в Хаммерсмите, Лондон — показательный ответ, поскольку более конкретный ответ, скорее всего, будет неправильным, как знает любой, кто что-либо понимает.

Будущие языковые модели будет не так-то просто уловить. Вскоре они могут создать у нас цельное и непроницаемое впечатление понимания и осведомленности о вещах, независимо от того, так ли это на самом деле. Когда это происходит, мы также можем оказаться неспособными избежать приписывания им сознания, поддавшись нашему антропоморфному предубеждению и нашей врожденной склонности ассоциировать интеллект с осознанностью.

Системы, подобные этой, пройдут так называемый тест Гарленда - идею, которая превратилась в философию из проницательного и красивого фильма Алекса Гарленда "Из машины". Этот тест переосмысливает классический тест Тьюринга, который обычно считается тестом машинного интеллекта, как проверку того, что нужно человеку, чтобы почувствовать, что машина обладает сознанием, даже учитывая знание того, что это машина. Системы искусственного интеллекта, прошедшие тест Гарланда, подвергнут нас своего рода когнитивной иллюзии, очень похожей на простые зрительные иллюзии, при которых мы не можем не видеть вещи определенным образом, даже если знаем, что реальность иная.

Это приведет общество на новую опасную территорию. Ошибочно приписывая искусственным системам сознание, подобное человеческому, мы будем делать неоправданные предположения о том, как они могут себя вести. Наш разум эволюционировал не для того, чтобы справляться с подобными ситуациями. Если мы чувствуем, что машина сознательно заботится о нас, мы можем доверять ей больше, чем следовало бы. Если мы чувствуем, что машина действительно верит в то, что она говорит, мы, возможно, будем более склонны относиться к ее взглядам более серьезно. Если мы ожидаем, что система искусственного интеллекта будет вести себя так, как вел бы себя сознательный человек — в соответствии с ее очевидными целями, желаниями и убеждениями, — мы можем катастрофически не суметь предсказать, что она может сделать.

Проблема в том, что ИИ просто кажется сознательным или на самом деле находится в пути.

Наши этические установки также будут искажены. Когда мы чувствуем, что что—то является сознательным — и сознательным так же, как и мы, - мы начинаем заботиться об этом. Мы могли бы ценить его предполагаемое благополучие выше других действительно сознательных существ, таких как нечеловеческие животные. Или, возможно, произойдет обратное. Мы можем научиться относиться к этим системам как к лишенным сознания, даже если мы все еще чувствуем, что они сознательны. Тогда мы могли бы в конечном итоге относиться к ним как к рабам — приучая себя к воспринимаемым страданиям других. Подобные сценарии лучше всего изучались в научно-фантастических сериалах, таких как "Мир дикого запада", где все оборачивается не очень хорошо ни для кого.

Короче говоря, назревает проблема, независимо от того, кажется ли формирующийся ИИ просто сознательным или он на самом деле является сознательным. Нам нужно тщательно обдумать обе возможности, стараясь при этом не смешивать их. И нам тоже нужны действия. Наряду с новыми институтами, подобными тому, который предлагают Маркус и Руэл, необходимы крупные инвестиции в исследования сознания в рамках наук о разуме и мозге, чтобы мы могли быть лучше информированы при разработке новых поколений искусственного интеллекта и реагировании на них. (Это исследование также принесет пользу обществу многими другими способами, например, в медицине, юриспруденции и защите животных.)

Ускоренные исследования также необходимы в социальных и гуманитарных науках, чтобы прояснить значение машин, которые только кажутся сознательными. И исследования ИИ также должны продолжаться, как для того, чтобы помочь в наших попытках понять биологическое сознание, так и для создания социально позитивного ИИ. Нам нужно пройти грань между извлечением пользы из множества функций, которые предлагает сознание, и избеганием ловушек. Возможно, будущие системы искусственного интеллекта могли бы больше походить на оракулов, как предположил эксперт по искусственному интеллекту Йошуа Бенгио: системы, которые помогают нам понимать мир и отвечать на наши вопросы настолько правдиво, насколько это возможно, не имея собственных целей — или "я".

Как и сама технология, отношение к искусственному интеллекту находится на переломном этапе. Времени на разработку рациональной и соответствующей целям структуры, гарантирующей использование огромного потенциала искусственного интеллекта на благо человечества и планеты, остается мало. Частью разговора должны быть последствия как истинного, так и кажущегося искусственного сознания. Нам нужно выдвинуть на передний план нашего коллективного осознания важность понимания самого осознания.

Анил Сет - профессор когнитивной и вычислительной нейронауки в Университете Сассекса, содиректор Канадского института перспективных исследований мозга, разума и сознания и продвинутый исследователь Европейского исследовательского совета. Он автор книги "Быть собой: новая наука о сознании".


Источник: nautil.us

Комментарии: