Перевод доклада "Может ли БОЛЬШАЯ ЯЗЫКОВАЯ МОДЕЛЬ быть СОЗНАТЕЛЬНОЙ?"

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-06-12 12:02

Философия ИИ

Перевод доклада "Может ли БОЛЬШАЯ ЯЗЫКОВАЯ МОДЕЛЬ быть СОЗНАТЕЛЬНОЙ?" одного из крупнеших экспертов мира в области сознания Д.Чалмерса (Окончание. Начало и основная часть докалада были размещены на странице КОБАЛЬТ ранее)

IV. Выводы

Попробуем суммировать аргументы за или против сознания в LLM (больших лингвистических моделях)?

Несмотря на то, что ни один из приведенных в статье аргументов против наличия сознания в современных LLM, таких как системы GPT, сам по себе не может считаться окончательным, все же следует признать, что их совокупность сильно снижает такую вероятность. Можно попробовать определить числовую вероятность наличия сознания в современных LLM. По имеющимся оценкам, шанс того, что сознание может существовать лишь на биологической основе составляет примерно 30%. То же самое касается требований сенсорного заземления, моделей себя, рекуррентной обработки, глобального рабочего пространства и единого агентства.1 Если бы эти шесть факторов были независимыми, это бы ознаало, что существует менее одного шанса из десяти, что система, лишенная всех шести параметров, (как современнная парадигматическая LLM) будет сознательной. Приведенные факторы, конечно же, не являются независимыми. Это несколько повышает вероятностные значения. С другой стороны, приведенная цифра может быть ниже из-за потенциального наличия других требований X, не учтенных в статье.

Принимая во внимание вышесказанное, можно заключить, что вероятность наличия сознания у нынешних моделей LLM составляет менее 10%. Вместе с тем, не стоит воспринимать приведенные цифры слишком серьезно (они могут ввести в заблуждение). Общий вывод, однако, заключается в том, что следует скептически воспринимать утверждения о наличии сознания в текущих парадигматических моделях LLM, включая модели GPT.2

Cовсем иначе обстоит дело с будущими LLM и их расширениями. По-видимому, вполне возможно, что уже в течение следующего десятилетия у нас появятся надежные системы с чувствами, воплощением, моделями мира и моделями себя, рекуррентной обработкой, глобальным рабочим пространством и едиными целями. (Мультимодальная система, такая как Perceiver IO, уже, возможно, имеет чувства, воплощение, глобальное рабочее пространство и форму рекуррентности, причем наиболее очевидными проблемами для нее являются модели мироздания, модели себя и унифицированное агентство.) Полагаю, было бы справедливо оценить шанс повления хорошо отлаженных сложных моделей LLM+ (то есть моделей LLM+ с поведением сопоставимым с поведением животных, которых мы считаем сознательными) со всеми перечисленными свойствами в течение десятилетия в 50%. Аналогично можно предположить вероятность того, что данные сложные системы будут сознательными составит по крайней мере 50 %. Это означает, что общая вероятность появления созначиельных систем LLM в ближайшем будущем составляет более 25 %. Повторюсь, что не стоит воспринимать эти цифры слишком серьезно, однако из вышесказанного проистекает, что, исходя из общепринятых предположений, шанс на появление сознательных LLM+ в течение ближайшего десятилетия весьма высок.

Один из способов достижения данной цели — программа «NeuroAI» по сопоставлению способностей различных (нечеловеческих) животных в виртуальном пространстве. По-видимому, даже если в следующем десятилетии не удастся воспроизвести когнитивные способности человеческого уровня, имеются выскоие шансы на достижение способности мышиного уровня в воплощенной системе с моделями мира, рекуррентной обработкой, едиными целями и т.д. 3 При этом вероятность того, что данные системы будут сознательными (с мышиным уровнем сознания) весьма высока.

В качестве промежуточной (девятой) задачи можно выдвинуть задачу построения мультимодальных моделей с возможностями мышиного уровня. Это стало бы ступенькой к формированию сознания мышиного уровня и, в конечном итоге, к сознанию человеческого уровня в будущем.

Безусловно, остается много вопросов. Один из основных пробелов в нашем понимании состоит в том, что мы не до конца понимаем что же такое сознание. Это действительно сложная проблема, которая выдвигает перед нами десятую задачу: необходимость разработки более совершенных научных и философских теорий сознания. За последние несколько десятилетий эти теории прошли долгий путь развития, но предстоит еще много работы.

Еще один большой пробел заключается в том, что мы на самом деле не понимаем, что происходит в созданных нами больших языковых моделях. Проект интерпретации систем машинного обучения действует уже давно, но ему также предстоит пройти очень долгий путь. Интерпретируемость порождает одиннадцатую проблему: понять, что происходит внутри LLM.

Попробуем суммировать вышесказанное в виде четырех фундаментальных проблем, из которых проистекает семь инженерно-ориентированных проблем, и двенадцатая проблема в форме вопроса.

Доказательства: разработать более четкие критерии выявления сознания.

Теория: разработать улучшенные научные и философские теории сознания.

Интерпретируемость: понять, что происходит внутри LLM.

Этика: следует ли нам создавать сознательный ИИ?

Создание сложных моделей восприятия-языка-действия в виртуальных мирах.

Создание LLM+ с надежными моделями мира и моделями себя.

Создание LLM+ с подлинной памятью и подлинной рекуррентностью.

Создание LLM+ с глобальным рабочим пространством. Построение LLM+, являющихся унифицированными агентскими моделями.

Построение LLM+, описывающих неизвестные особенности сознания.

Построние LLM+ с возможностями сознания уровня мыши.

Достаточно ли этого для сознательного ИИ: если нет, то чего не хватает?

Касательно двенадцатой проблемы: предположим, что в течение следующего десятилетия или двух удастся интегрировать все инженерные требования в одной системе. Получим ли мы на выходе сознательные системы ИИ? Ответ не столь очевиден. Но если у кого-то возникли возражения, мы можем спросить еще раз: чего не хватает (X)? И можно ли встроить этот X в систему ИИ?

Мой вывод заключается в том, что в течение следующего десятилетия, даже если у нас не будет общего искусственного интеллекта человеческого уровня, у нас вполне могут появится системы, которые являются серьезными кандидатами на сознание. На пути к сознанию в системах машинного обучения есть много проблем, но решение этих проблем открывает возможную формулироваки конструктивной исследовательской программы в направлении создания сознательного ИИ.

В завершении, вновь вернемся к этической проблеме.4 Я не утверждаю, что мы должны продолжать эту исследовательскую программу. Если вы считаете, что сознательный ИИ желателен, программа может служить своего рода дорожной картой для достижения этой цели. Если вы считаете, что создание сознательного ИИ нежелательно, то данная программа может указать пути, которых следует избегать. Я бы был особенно осторожен с созданием моделей агентов. Тем не менее, я думаю, что исследователи, вероятно, будут следовать многим элементам этой исследовательской программы, независимо от того, считают ли они это стремлением к сознанию ИИ или нет. Было бы катастрофой наткнуться на сознание ИИ неосознанно и нерефлексивно. Поэтому я надеюсь, что явное указание этих возможных путей, по крайней мере, поможет нам осознанно подойти к вопросу создания сознательного ИИ и решать эти проблемы с осторожностью.

Послесловие

Как обстоят дела сейчас, спустя восемь месяцев после того, как я прочитал эту лекцию на конференции NeurIPS в конце ноября 2022 года? Хотя новые системы, такие как GPT-4, все еще имеют много недостатков, они являются значительным шагом вперед по некоторым параметрам, обсуждаемым в этой статье. Они, безусловно, демонстрируют более сложные разговорные способности. Там, где я сказал, что производительность GPT-3 часто кажется на уровне с развитым ребенком, производительность GPT-4 часто (не всегда) кажется на уровне с осведомленным молодым человеком. Также были достигнуты успехи в мультимодальной обработке и моделировании агентов, и в меньшей степени в других параметрах, которые я обсудил. Я не думаю, что эти достижения каким-либо образом меняют мой анализ, но поскольку прогресс был быстрее, чем ожидалось, разумно сократить ожидаемые сроки. Если это так, мои прогнозы к концу этой статьи могут быть даже несколько консервативными.

Примечания

1. Философ Джонатан Бирч различает подходы к сознанию животных, которые являются «теоретико-тяжелыми» (предполагают полную теорию), «теоретико-нейтральными» (действуют без теоретических предположений) и «теоретико-легкими» (действуют со слабыми теоретическими предположениями). Можно также использовать теоретико-тяжелые, теоретико-нейтральные и теоретико-легкие подходы к сознанию ИИ. Подход к искусственному сознанию, который я здесь принял, отличается от этих трех. Его можно считать теоретически сбалансированным подходом, который учитывает предсказания нескольких теорий, уравновешивая доверие между ними, возможно, в соответствии с доказательствами для этих теорий или в соответствии с принятием этих теорий.

Еще одна точная форма теоретически сбалансированного подхода может использовать данные о том, насколько широко приняты различные теории среди экспертов, чтобы обеспечить доверие к этим теориям и использовать эти доверия вместе с предсказаниями различных теорий для оценки вероятностей для сознания ИИ (или животных). В недавнем опросе исследователей в области науки о сознании чуть более 50 процентов респондентов указали, что они принимают или считают перспективной теорию глобального рабочего пространства сознания, в то время как чуть менее 50 процентов указали, что они принимают или считают перспективной теорию локальной рекуррентности (которая требует рекуррентной обработки для сознания). Показатели для других теорий включают чуть более 50 процентов для теорий предиктивной обработки (которые не делают четких прогнозов для сознания ИИ) и для теорий более высокого порядка (которые требуют моделей себя для сознания), и чуть менее 50 процентов для интегрированной теории информации (которая приписывает сознание многим простым системам, но требует рекуррентной обработки для сознания). Конечно, превращение этих цифр в коллективные доверия требует дальнейшей работы (например, по преобразованию «принять» и «найти многообещающим» в доверия), как и применение этих доверия вместе с теоретическими предсказаниями для получения коллективных доверия о сознании ИИ. Тем не менее, кажется не неразумным присвоить коллективное доверие выше одного из трех для каждого из глобального рабочего пространства, рекуррентной обработки и моделей себя в качестве требований к сознанию.

А как насчет биологии как требования? Согласно опросу профессиональных философов 2020 года, около 3 % приняли или склонились к мнению, что современные системы ИИ сознательны, 82 процента отвергли или склонились к мнению, а 10 % остались нейтральны. Около 39 % приняли или склонились к мнению, что будущие системы ИИ будут сознательными, 27 % отвергли или склонились к мнению, а 29 % остались нейтральны. (Около 5% отклонили вопросы разными способами, например, заявив, что нет никаких фактов или что вопрос слишком неясен, чтобы на него ответить). Приведенные цифры указывают на наличие коллективной убежденности в том, что биология необходима для сознания будущего сознательного ИИ у каждого третьего из экспертов (хотя речь здесь идет о философах, а не исследователях сознания). Информации о едином агентстве и о сенсорном обосновании как требованиях для сознания в двух вышуказанных опросах меньше.

2. По сравнению с общепринятыми взглядами в науке о сознании мои собственные взгляды несколько больше склоняются к тому, что сознание широко распространено. Поэтому я бы несколько понизил доверие к различным существенным требованиям к сознанию, которые я здесь изложил, и несколько повысил доверие к текущему сознанию LLM и будущему сознанию LLM+ в результате.

3. В NeurIPS я сказал «возможности уровня рыб». Я изменил это на «возможности уровня мышей» (вероятно, в принципе, более сложная задача), отчасти потому, что больше людей уверены в том, что мыши сознательны, чем в том, что рыбы сознательны, и отчасти потому, что гораздо больше работы по познанию мышей, чем по познанию рыб.

4. Этот последний абзац является дополнением к тому, что я представил на конференции NeurIPS.

Источник: https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/


Источник: www.bostonreview.net

Комментарии: