ИИ развивается и меняет наше представление об интеллекте

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-07-23 12:37

Философия ИИ

Достижения в области искусственного интеллекта заставляют нас переосмыслить, что такое интеллект, и дают нам ключ к раскрытию полного потенциала искусственного интеллекта.

Впечатляющие достижения в области искусственного интеллекта сегодня заставляют нас переосмыслить наше понимание того, что такое интеллект на самом деле. Наши новые идеи позволят нам создавать более совершенный искусственный интеллект и лучше понимать себя.

Короче говоря, мы находимся на территории смены парадигмы

Смена парадигмы часто чревата последствиями, потому что легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они не совместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли в течение примерно двух тысячелетий. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была одновременно интуитивной и совместимой с религиозными традициями. Таким образом, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, как отмечает Бенджамин Браттон, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой. Итак, на сегодняшний день искусственный интеллект.

В этом эссе мы опишем пять взаимосвязанных сдвигов парадигмы, которые повлияли на наше развитие ИИ:

  1. Естественные вычисления — Вычисления существовали в природе задолго до того, как мы построили первые «искусственные компьютеры». Понимание вычислительной техники как природного явления позволит добиться фундаментальных успехов не только в информатике и искусственном интеллекте, но и в физике и биологии.
  2. Нейронные вычисления — Наш мозг является изысканным образцом естественных вычислений. Перепроектирование компьютеров, на которых работает ИИ, чтобы они работали как мозг, значительно повысит энергоэффективность ИИ, а также его возможности.
  3. Успех больших языковых моделей (LLM) показывает нам нечто фундаментальное о природе интеллекта: он включает в себя статистическое моделирование будущего (включая собственные будущие действия) с учетом развивающихся знаний, наблюдений и обратной связи из прошлого. Это понимание говорит о том, что текущие различия между проектированием, обучением и запуском моделей ИИ являются преходящими; более сложный ИИ будет развиваться, расти и учиться непрерывно и интерактивно, как это делаем мы.
  4. Общий интеллект — интеллект не обязательно требует биологических вычислений. Несмотря на то, что модели ИИ будут продолжать совершенствоваться, они уже обладают широкими возможностями, решая все более широкий спектр когнитивных задач с уровнем навыков, приближающимся, а в некоторых случаях и превышающим индивидуальные человеческие возможности. В этом смысле «Общий искусственный интеллект» (AGI), возможно, уже здесь — мы просто продолжаем смещать цели.
  5. Коллективный интеллект — мозги, агенты искусственного интеллекта и общества могут стать более способными за счет увеличения масштаба. Однако одного размера недостаточно. Разведка в своей основе социальна, она основана на сотрудничестве и разделении труда между многими агентами. В дополнение к тому, что это заставляет нас переосмыслить природу человеческого интеллекта (или «больше, чем человек») интеллекта, это понимание предполагает социальные агрегации интеллектов и многоагентные подходы к разработке ИИ, которые могут снизить вычислительные затраты, увеличить гетерогенность ИИ и переосмыслить дебаты о безопасности ИИ.

Возможно, самая большая травма Коперника эпохи искусственного интеллекта заключается в том, что она просто смирилась с тем, насколько обычным может быть общий и нечеловеческий интеллект. Но чтобы понять наш собственный «геоцентризм интеллекта», мы должны начать с переоценки наших предположений о природе вычислений, поскольку они являются основой как искусственного интеллекта, так и, как мы поспорим, интеллекта в любой форме.

Естественные вычисления

Является ли «информатика» вообще наукой? Часто его рассматривают скорее как инженерную дисциплину, рожденную вместе с Электрическим числовым интегратором и компьютером (ENIAC) времен Второй мировой войны, первым полностью программируемым электронным компьютером общего назначения и далеким предком вашего смартфона.

Тем не менее, теоретическая информатика предшествовала компьютерной инженерии. В 1936 году британский математик Алан Тьюринг представил воображаемое устройство, которое мы теперь называем машиной Тьюринга, состоящую из головы, которая может двигаться влево или вправо по ленте, читая, стирая и записывая символы на ленте в соответствии с набором правил. Наделенная подходящими правилами, машина Тьюринга может следовать инструкциям, закодированным на ленте — тому, что мы сейчас называем компьютерной программой или кодом — позволяя такой «универсальной машине Тьюринга» (UTM) выполнять произвольные вычисления. С другой стороны, вычисление — это все, что может быть выполнено с помощью UTM. Когда ENIAC был завершен в 1945 году, он стал первым в мире реальным UTM.

А может и нет. Небольшой, но растущий список неортодоксальных исследователей с глубоким опытом в области физики и информатики, таких как Сьюзан Степни из Йоркского университета, в 2014 году в исследовательском журнале «Proceedings of The Royal Society A» заявил, что мир природы полон вычислительных систем, «где нет очевидного пользователя компьютера». Джон Уилер, выдающаяся фигура в физике 20-го века, отстаивал радикальную гипотезу «это из бита», которая гласит, что базовая структура Вселенной является вычислительной. Согласно Уилеру, элементарные явления, которые мы считаем физическими — кварки, электроны, фотоны — являются продуктами базовых вычислений, таких как интернет-пакеты или пиксели изображений.

«Возможно, самая большая травма Коперника эпохи искусственного интеллекта заключается в том, что он просто смирился с тем, насколько обычным может быть общий и нечеловеческий интеллект».

В некоторых интерпретациях квантовой механики эти вычисления происходят в мультивселенной, то есть огромное количество вычислений происходит в параллельных, запутанных вселенных. Как бы мы ни интерпретировали лежащую в основе физику, вполне реальная технология квантовых вычислений использует этот параллелизм, позволяя нам выполнять определенные вычисления за считанные минуты, что потребовало бы времени жизни Вселенной в несколько раз больше времени на сегодняшних самых мощных суперкомпьютерах. По любым меркам, это смена парадигмы в вычислительной технике.

Утверждения о том, что вычисления лежат в основе физической реальности, трудно доказать или опровергнуть, но очевидный аргумент в пользу вычислений в природе был обнаружен гораздо раньше, чем гипотеза Уилера. Джон фон Нейман, опытный математический физик и еще одна фигура основателя информатики, обнаружил глубокую связь между вычислительной техникой и биологией еще в 1951 году.

Фон Нейман понимал, что для размножения сложного организма он должен содержать инструкции для построения самого себя, а также машину для чтения и выполнения этой инструкции на «ленте». Лента также должна быть копируемой и содержать инструкции по сборке устройства, которое ее считывает. Так уж вышло, что технические требования к тому самому «универсальному конструктору» в точности совпадают с техническими требованиями к UTM. Примечательно, что проницательность фон Неймана предвосхитила открытие структуры и функции ДНК, подобных ленте Тьюринга, в 1953 году.

Фон Нейман показал, что жизнь по своей природе вычислительна. Это может показаться удивительным, поскольку мы думаем о компьютерах как о совершенно неживых, а о живых существах — как о совершенно точно не компьютерах. Но это правда: ДНК — это код, хотя этот код трудно реконструировать и он не выполняется последовательно. Живые существа обязательно вычисляются не только для размножения, но и для развития, роста и исцеления. Кроме того, становится все более возможным редактировать или программировать основополагающие биологические системы.

Тьюринг также внес плодотворный вклад в теоретическую биологию, описав, как рост и дифференцировка тканей могут быть реализованы клетками, способными воспринимать и излучать химические сигналы, которые он назвал «морфогенами» — мощной формой аналоговых вычислений. Как и фон Нейман, Тьюринг был прав, несмотря на то, что никогда не был в биологической лаборатории.

Раскрыв вычислительную основу биологии, Тьюринг и фон Нейман заложили основы искусственной жизни, или «ALife», области, которая сегодня остается неясной и допарадигматической — так же, как искусственный интеллект был до недавнего времени.

Тем не менее, есть все основания полагать, что ALife скоро расцветет, как и ИИ. Реальный прогресс в области искусственного интеллекта должен был подождать, пока мы не сможем собрать достаточно «искусственных» вычислений, чтобы смоделировать (или, по крайней мере, имитировать) активность миллиардов нейронов, необходимых для того, чтобы приблизиться к сложности, подобной мозгу. De novo ALife нужно пойти гораздо дальше, резюмируя работу миллиардов лет эволюции на Земле. Это по-прежнему тяжелая задача. Тем не менее, мы добиваемся прогресса.

Недавние эксперименты, проведенные нашей командой Paradigms of Intelligence в Google, показали, что в смоделированной игрушечной вселенной, способной поддерживать вычисления, мы можем перейти от случайности к минимальному количеству «форм жизни», возникающих спонтанно. Один из таких экспериментов включает в себя начало с «супа» из случайных строк, каждая из которых имеет длину 64 байта. Восемь из 256 возможных значений байтов соответствуют инструкциям минимального языка программирования 1990-х годов под названием «Brainfuck». Эти строки байтов можно рассматривать как ленты Тьюринга, а восемь компьютерных инструкций определяют элементарные операции машины Тьюринга. Эксперимент состоит в том, чтобы наугад вытащить две ленты из супа, склеить их вместе, «запустить» сращенную ленту, снова разделить ленты и положить их обратно в суп. Поначалу кажется, что ничего особенного не происходит; Мы видим только случайные ленты, с байтом, который время от времени изменяется, по-видимому, случайным образом. Но после нескольких миллионов взаимодействий появляются функциональные ленты, которые начинают самовоспроизводиться: минимальная искусственная жизнь.

Возникновение искусственной жизни выглядит как фазовый переход, как при замерзании или закипании воды. Но в то время как обычные фазы материи характеризуются своим статистическим единообразием — упорядоченная атомная решетка для льда, случайные положения атомов для газа и что-то среднее для жидкости — живая материя гораздо более сложна, демонстрируя разнообразную и целенаправленную структуру на каждом уровне. Это связано с тем, что вычисления требуют отдельных функциональных частей, которые должны работать вместе, как это очевидно в любой машине, организме или программе.

Есть что-то волшебное в том, чтобы наблюдать за сложными, целенаправленными и функциональными структурами, возникающими из случайного шума в наших симуляциях. Но в этом нет ничего сверхъестественного или чудесного. Подобные фазовые переходы от неживого к живому происходили на Земле миллиарды лет назад, и мы можем предположить, что подобные события происходили и на других благоприятных для жизни планетах или лунах.

«Жизнь вычислительна, потому что ее стабильность зависит от роста, заживления или размножения; И сами вычисления должны развиваться для поддержки этих основных функций».

Как могла возникнуть сложность жизни, не говоря уже о том, чтобы существовать в случайной среде? Ответ: все живое, что самовосстанавливается или воспроизводится, является более «динамически стабильным», чем что-то инертное или неживое, потому что живое существо (или его потомки) все еще будет существовать в будущем, в то время как все неодушевленное со временем деградирует, уступая случайности. Жизнь вычислительна, потому что ее стабильность зависит от роста, исцеления или размножения; И сами вычисления должны развиваться для поддержки этих основных функций.

Этот вычислительный взгляд на жизнь также дает представление о возрастающей сложности жизни с течением эволюционного времени. Поскольку вычислительная материя, включая саму жизнь, состоит из отдельных частей, которые должны работать вместе, эволюция действует одновременно на части и в целом — процесс, известный в биологии как «многоуровневый отбор».

Существующие части (или организмы) могут многократно объединяться, создавая все более крупные и сложные объекты. Давным-давно на первичном морском дне (как гласит преобладающее понимание) молекулы объединились, чтобы образовать самовоспроизводящиеся или «автокаталитические» реакционные циклы; эти химические циклы в сочетании с жировыми мембранами образуют самые ранние клетки; бактерии и археи объединились, образовав эукариотические клетки; Эти сложные клетки объединились, образовав многоклеточные организмы; и так далее. Каждый такой крупный эволюционный переход включал в себя функциональный симбиоз, форму взаимозависимости, в которой ранее независимые сущности объединяли свои силы, чтобы создать большее целое.

Первые ступени этой эволюционной лестницы не были связаны с живыми существами с наследственными генетическими кодами. Однако, как только объединяющиеся сущности становились живыми и, следовательно, вычислительными, каждая последующая комбинация увеличивала потенциальную вычислительную мощность симбиотического целого. Интеллект человеческого уровня, на много ступеней выше самых ранних форм жизни, возникает в результате объединенных вычислений около 86 миллиардов нейронов, и все они обрабатываются параллельно.

Нейронные вычисления

Пионеры вычислительной техники были хорошо осведомлены о вычислительной природе нашего мозга. На самом деле, в 1940-х годах не было большой разницы между зарождающимися областями информатики и нейронауки. Электронные вычислительные машины были разработаны для выполнения умственных операций в промышленных масштабах, так же как в предыдущем веке были разработаны фабричные машины для автоматизации физического труда. Первоначально повторяющиеся умственные задачи выполнялись людьми-компьютерами — такими как «скрытые фигуры», женщины, которые (часто с небольшим признанием и низкой оплатой) выполняли длительные расчеты, необходимые для военных действий, а затем и для космической гонки.

Соответственно, логические вентили, составляющие электронные схемы, лежащие в основе новых «искусственных» компьютеров, изначально задумывались как искусственные нейроны. Журналисты, которые называли компьютеры «электронными мозгами», не просто писали эквивалент кликбейта середины века. Они изображали амбиции пионеров компьютерных наук. И для тех первых специалистов по информатике было вполне естественно стремиться воспроизвести любой вид мышления.

Эти надежды вскоре рухнули. С одной стороны, цифровые компьютеры имели ошеломляющий успех в узко процедурных задачах, которые мы знали, как определить. Электронные компьютеры могут быть запрограммированы на выполнение работы человеческих компьютеров дешево, безупречно и в массовом масштабе, от расчета траекторий ракет до отслеживания заработной платы. С другой стороны, к 1950-м годам нейробиологи обнаружили, что настоящие нейроны намного сложнее логических вентилей.

Хуже того, оказалось невозможным написать программы, которые могли бы выполнять даже самые простые повседневные человеческие функции, от визуального распознавания до базового понимания языка, не говоря уже о тонких рассуждениях, литературном анализе или художественном творчестве. Мы понятия не имели (и до сих пор не имеем) о том, как точно записать процедуры для таких вещей. Обреченная на провал попытка сделать это теперь известна как «старый добрый ИИ» или GOFAI. Мы решили сделать HAL 9000, и вместо этого мы получили «Нажмите 1, чтобы назначить встречу; Нажмите 2, чтобы изменить существующую встречу».

Для оправдания провала GOFAI возник якобы разумный нарратив: компьютеры — это не мозги, а мозги — это не компьютеры. Любое противоположное предложение было наивным, «хайпом» или, в лучшем случае, неподходящей метафорой. Возможно, было что-то обнадеживающее в идее о том, что человеческое поведение не может быть запрограммировано. По большей части, нейронаука и информатика пошли разными путями.

«Вычислительные нейробиологи», однако, продолжали изучать мозг как систему обработки информации, хотя и основанную на радикально иной конструкции, чем у обычных электронных компьютеров. Мозг не имеет центрального процессора или отдельного хранилища памяти, не выполняет инструкции только последовательно и не использует двоичную логику. Тем не менее, как показал Тьюринг, вычислительная техника универсальна. При наличии достаточного количества времени и памяти любой компьютер — будь то биологический или технологический — может смоделировать любой другой компьютер. Действительно, на протяжении многих лет нейробиологи строили все более точные вычислительные модели биологических нейронов и нейронных сетей. Такие модели могут включать в себя не только импульсы «все или ничего» или «потенциалы действия», которые наиболее очевидно характеризуют нейронную активность, но также эффекты химических сигналовэкспрессию геновэлектрические поля и многие другие явления.

«Интеллект человеческого уровня, на много ступеней выше самых ранних форм жизни, возникает в результате объединенных вычислений около 86 миллиардов нейронов, и все они обрабатываются параллельно».

Здесь стоит сделать паузу, чтобы распаковать слово «модель». В своем традиционном использовании, как в модели железной дороги или в финансовой модели, модель категорически не является реальной вещью. Это карта, а не фактическая территория. Когда нейробиологи строят модельные нейронные сети, они обычно придерживаются этого принципа. Они пытаются узнать, как работает мозг, а не как заставить компьютеры думать. Соответственно, их модели кардинально упрощаются.

Тем не менее, вычислительная нейробиология напоминает нам, что мозг тоже занят вычислениями. И, как таковая, функция, вычисляемая мозгом, сама по себе является моделью. Итак, территория – это карта; То есть, если бы карта была такой же большой, как и территория, она была бы реальной, как модель железной дороги, если бы она была полноразмерной. Другими словами, если бы мы построили полностью реализованный модельный мозг, он был бы способен смоделировать нас обратно!

Даже когда GOFAI претерпел повторяющийся цикл подъемов и спадов, альтернативная «коннекционистская» школа мысли о том, как заставить компьютеры думать, сохранялась, часто пересекаясь с вычислительной нейронаукой. Вместо символьной логики, основанной на правилах, заданных программистом, коннекционисты приняли «машинное обучение», с помощью которого нейронные сети могли учиться на опыте, как мы в основном и делаем.

Несмотря на то, что GOFAI часто затмевает коннекционистов, они никогда не прекращали попыток заставить искусственные нейронные сети выполнять реальные когнитивные задачи. Среди этих упрямых противников были Джеффри Хинтон и Джон Хопфилд, которые в прошлом году получили Нобелевскую премию по физике за свою работу в области машинного обучения; многие другие пионеры в этой области, такие как американские психологи Фрэнк Розенблатт и Джеймс Макклелланд и японский ученый в области информатики Кунихико Фукусима, получили менее широкое признание. К сожалению, компьютерная парадигма 20-го века (по крайней мере, до 1990-х годов) была недружелюбна к машинному обучению не только из-за широко распространенного скептицизма в отношении нейронных сетей, но и из-за того, что программирование было по своей сути символическим. Компьютеры были созданы для последовательного выполнения инструкций, что плохо подходит для нейронных вычислений. Изначально это был дизайнерский выбор.

Первые логические вентили были созданы с использованием электронных ламп, которые были ненадежны и нуждались в частой замене. Чтобы сделать вычисления как можно более надежными, было естественно основывать все расчеты на минимальном числе различимых «состояний» для каждой трубки: «выключено» или «включено». Отсюда двоичность, которая использует только 0 и 1 — и также является естественной основой для булевой логики, элементарными символами которой являются «Истина» (или 1) и «Ложь» (или 0).

Также было естественно создать «центральный процессор» (ЦП) с использованием минимального количества подверженных сбоям трубок, которые затем использовались бы для выполнения одной инструкции за другой. Это означало отделение обработки от памяти и использование кабеля или «шины» для последовательной передачи данных и инструкций из памяти в процессор и обратно.

Эта «классическая» вычислительная парадигма процветала в течение многих лет благодаря закону Мура — знаменитому наблюдению 1965 года Гордона Мура, будущего основателя производителя микросхем Intel, о том, что миниатюризация удваивает количество транзисторов на чипе каждый год или два. По мере того как транзисторы уменьшались, они становились экспоненциально быстрее и дешевле, а также потребляли меньше энергии. Таким образом, гигантские и дорогие мэйнфреймы стали мини, затем настольными компьютерами, затем ноутбуками, затем телефонами, а затем носимыми устройствами. В настоящее время существуют компьютеры, которые достаточно малы, чтобы пройти через иглу для подкожных инъекций. Ноутбуки и телефоны состоят в основном из батареек и экранов; реальный компьютер в таком устройстве — его «система на кристалле» или SoC — имеет площадь всего около квадратного сантиметра и толщину в десятую долю миллиметра. Одна капля воды занимает в несколько раз больше объема.

Хотя эта прогрессия по шкале замечательна, она не ведет к мозгу. Ваш мозг не крошечный и не быстрый; Он работает гораздо более спокойно, чем компьютер в умных часах. Однако напомним, что он содержит около 86 миллиардов нейронов, работающих одновременно. Это приводит к огромному объему вычислений, а поскольку это происходит сравнительно медленно и использует информацию, хранящуюся локально, это энергоэффективно. Искусственные нейронные вычисления оставались неэффективными, даже когда компьютеры ускорялись, потому что они продолжали выполнять инструкции последовательно: считывать и записывать данные из отдельной памяти по мере необходимости.

Запуск нейронных сетей значительного размера стал возможен только тогда, когда такие компании, как Nvidia, начали разрабатывать чипы с несколькими процессорами, работающими параллельно. Распараллеливание отчасти было ответом на исчерпание закона Мура в его первоначальной форме. В то время как транзисторы продолжали уменьшаться, после 2006 года или около того, их уже нельзя было заставить работать быстрее; Практический предел составлял несколько миллиардов циклов в секунду.

«Искусственные нейронные вычисления оставались неэффективными, даже когда компьютеры ускорялись, потому что они продолжали выполнять инструкции последовательно».

Распараллеливание означало изменение модели программирования в пользу коротких фрагментов кода (первоначально называемых «пиксельными шейдерами», поскольку они были разработаны для графики), которые могли выполняться на многих процессорах одновременно. Шейдеры оказались идеальными для распараллеливания нейронных сетей. Таким образом, графический процессор (GPU), изначально разработанный для игр, теперь работает на искусственном интеллекте. Тензорные процессоры Google (TPU) основаны на схожих принципах проектирования.

Несмотря на то, что графические процессоры и ТПУ являются шагом в правильном направлении, инфраструктура искусственного интеллекта сегодня по-прежнему ограничена своим классическим наследием. Мы все еще далеки от того, чтобы иметь чипы с миллиардами процессоров на них, которые работают параллельно на локально хранимых данных. А модели ИИ до сих пор реализуются с помощью последовательных инструкций. Традиционное компьютерное программирование, архитектура чипов и проектирование систем просто не похожи на мозг. Мы моделируем нейронные вычисления на классических компьютерах, что неэффективно — так же, как симуляция классических вычислений с помощью мозга во времена человеческих вычислений.

Тем не менее, в течение следующих нескольких лет мы ожидаем увидеть появление по-настоящему нейронной вычислительной парадигмы. Нейронные вычисления в конечном итоге могут быть реализованы на фотонных, биологических, химических, квантовых или других совершенно новых субстратах. Но даже если «кремниевые мозги» будут изготовлены с использованием привычных технологий чипов, их компоненты будут организованы иначе. Каждый квадратный сантиметр кремния будет содержать многие миллионы узлов обработки информации, таких как нейроны, и все они будут работать одновременно.

Эти нейронные чипы не будут запускать программы. Их функциональность будет определяться не кодом (по крайней мере, не таким, каким мы имеем сегодня), а миллиардами или триллионами числовых параметров, хранящихся в вычислительной области. Нейронный кремниевый мозг будет способен быть «прошитым», его параметры будут инициализированы по желанию; Но он также сможет учиться на опыте, изменяя эти параметры на лету. Вычисления будут децентрализованными и надежными; Случайные сбои или локализованные повреждения не будут иметь значения. Не случайно это напоминает природную архитектуру для построения мозга.

Предиктивный интеллект

Для тех из нас, кто участвовал в ранней разработке языковых моделей, очевидная универсальность ИИ, основанная исключительно на прогнозировании следующего слова (или «следующего токена»), привела к изменению парадигмы. Даже если мы поверим в базовую предпосылку о том, что мозг является вычислительным, большинство из нас считает, что настоящий ИИ потребует открытия некоего специального алгоритма, и этот алгоритм поможет прояснить давние тайны интеллекта и сознания. Поэтому стало шоком, когда одно только предсказание следующего токена, примененное в массовом масштабе, «решило» интеллект.

Как только мы оправились от шока, мы поняли, что это не означает, что тайн не осталось, что сознание нереально или что ум – это иллюзия Волшебника страны Оз. Нейронные сети, лежащие в основе LLM, одновременно огромны и доказуемо способны к любым вычислениям, подобно тому, как классический компьютер выполняет программу. На самом деле, LLM могут изучить более широкий спектр алгоритмов, чем обнаружили или изобрели компьютерщики.

Возможно, тогда шок был неоправданным. Мы уже знали, что мозг является вычислительным и что все, что он делает, должно быть изучено либо эволюцией, либо опытом, иначе мы бы не существовали. Мы просто оказались в странном положении, когда воспроизводим что-то, не успев полностью понять это. Когда Тьюринг и фон Нейман вносили свой вклад в информатику, теория опережала практику. Сегодня практика опережает теорию.

Возможность создавать интеллект в лаборатории дает нам новые мощные возможности для исследования его давних тайн, потому что, несмотря на заявления об обратном, искусственные нейронные сети не являются «черными ящиками». Мы можем не только исследовать их цепочки мыслей, но и учимся более глубоко исследовать их, чтобы проводить «искусственную нейронауку». И в отличие от биологического мозга, мы можем записывать и анализировать каждую деталь его активности, проводить идеально повторяемые эксперименты в больших масштабах, а также включать или выключать любую часть сети, чтобы увидеть, что она делает.

Несмотря на то, что существует много важных различий между моделями ИИ и мозгом, сравнительный анализ обнаружил поразительное функциональное сходство между ними, что свидетельствует об общих основополагающих принципах. Черпая вдохновение из десятилетий исследований мозга, ИИ, таким образом, начинает возвращать свой долг нейронауке под лозунгом «НейроИИ».

Хотя мы еще не до конца понимаем алгоритмы, которые изучают LLM, мы начинаем понимать, почему обучение прогнозированию следующего токена работает так хорошо. «Гипотеза предсказательного мозга» имеет долгую историю в нейробиологии; Она утверждает, что мозг эволюционировал, чтобы постоянно моделировать и предсказывать будущее — воспринимаемой среды, самого себя, своих действий и их влияния на него самого и окружающую среду. От такой модели зависит наша способность вести себя целенаправленно и разумно.

«Мы моделируем нейронные вычисления на классических компьютерах, что неэффективно — так же, как симуляция классических вычислений с помощью мозга была во времена человеческих вычислений».

Подумайте о том, чтобы достать чашку воды. Это непростой подвиг — научиться моделировать мир и свое собственное тело настолько хорошо, чтобы соприкоснуться рукой с этой чашкой, обхватить ее пальцами, поднести к губам и выпить — и все это за секунду или две. На каждом этапе этих движений ваша нервная система вычисляет прогноз и сравнивает его с проприоцептивной обратной связью. Ваш взгляд скользит по сцене, обеспечивая дальнейшую коррекцию ошибок.

На более высоком уровне вы предсказываете, что употребление алкоголя утолит вашу жажду. Жажда сама по себе является предсказательным сигналом, хотя и «усваивается» целым видом в гораздо более длительных, эволюционных временных масштабах. Организмы, неспособные предсказать свою потребность в воде, не проживут достаточно долго, чтобы передать свои ошибочные модели себя.

Эволюция обобщает бесчисленные накопления опыта предыдущих поколений, сведенного к грубому сигналу о репродуктивном успехе или смерти. Эволюционное научение работает, когда новорожденный узнает лица, или, возможно, когда кошка, которая никогда не видела змеи, в испуге подпрыгивает, заметив украдкой спрятанный за ней огурец.

Машинное обучение включает в себя настройку параметров модели, которые обычно понимаются как синапсы — связи между нейронами, которые усиливаются или ослабевают в процессе обучения на протяжении всей жизни. Эти параметры обычно инициализируются случайным образом. Но в мозге нейроны подключаются в соответствии с генетически закодированной (и чувствительной к окружающей среде) программой развития. Мы ожидаем, что будущие модели ИИ будут аналогичным образом развиваться, чтобы конструировать себя. Они будут расти и развиваться динамически на основе опыта, а не иметь статичные, спроектированные вручную архитектуры с фиксированным количеством параметров.

Унификация обучения в разных временных масштабах может также устранить существующую дихотомию между обучением модели и нормальной работой (или «выводом»). Сегодня современное обучение магистров права стоит чрезвычайно дорого, требуя огромных вычислительных ресурсов в течение нескольких месяцев, в то время как вывод сравнительно дешев и может быть выполнен в режиме реального времени. Тем не менее, мы знаем, что одним из самых важных навыков, которые получают магистры права, является умение учиться, что объясняет, почему они могут справиться с новой идеей, словом или задачей во время сеанса чата.

На данный момент, однако, любое такое вновь приобретенное знание является преходящим, сохраняющимся только до тех пор, пока оно остается в пределах «контекстного окна»; Параметры модели остаются неизменными. Будущие модели, объединяющие действия и прогнозирование, должны иметь возможность обучаться кумулятивно и открыто по мере их продвижения, как это делаем мы.

Аналогичным образом, мы начинаем наблюдать переход от представления о возможностях моделей ИИ, ограниченных их первоначальным офлайн-обучением, к «масштабированию во время тестирования», при котором модели становятся более способными, просто уделяя больше времени обдумыванию своих ответов. Модели, в большей степени похожие на мозги, должны позволить накапливать такие мгновенные улучшения, как это происходит с нами, чтобы все будущие реакции могли принести пользу.

Поскольку нейронные сети, лежащие в основе LLM, являются мощными предикторами общего назначения, логично, что они доказали свою способность не только моделировать язык, звук и видео, но и революционизировать робототехнику, как в предыдущем примере с дотягиванием до стакана воды. Запрограммированная вручную система GOFAI в течение десятилетий боролась со всем, что выходило за рамки повторяющейся, рутинной робототехники сборочных линий. Но сегодня LLM-подобные модели «видение-язык-действие» могут научиться управлять всеми видами роботизированных тел, от автомобилей Waymo до гуманоидных (и многих других) форм, которые все чаще развертываются в сложных, неструктурированных средах.

Используя цепочки мыслей и рассуждений, которые разбивают большие проблемы на более мелкие промежуточные шаги, прогностические модели могут даже моделировать несколько возможных исходов или непредвиденных обстоятельств, выбирая из дерева потенциальных вариантов будущего. Такого рода «выборочное» предсказание может быть механизмом, лежащим в основе нашего представления о свободе воли.

В конечном счете, все, что делают организмы, можно рассматривать как самосбывающееся предсказание. Жизнь – это то, что предсказывает себе продолжение существования, и по мере роста интеллекта это предсказание может становиться все более изощренным.

Принятие парадигмы предиктивной обработки, включая унификацию планирования, действий и прогнозирования, обещает не только дальнейшее совершенствование языковых моделей и робототехники, но и приведение теоретических основ машинного обучения, нейробиологии и даже теоретической биологии на общую основу.

Общий интеллект

По мнению некоторых, LLM — это фальшивый интеллект: они создают видимость интеллекта, но на самом деле таковыми не являются. По мнению этих скептиков, мы обучили ИИ проходить тест Тьюринга, «автодополняя» огромное количество предложений, создавая машины, которые обманывают нас, заставляя поверить, что «кто-то дома», когда его нет.

Многие придерживаются противоположной точки зрения, что ИИ реален и что мы находимся на пороге достижения «общего искусственного интеллекта» (ОИИ), хотя существуют самые разные мнения о том, как его определить. В зависимости от конкретного человека, эта перспектива может быть захватывающей, тревожной или даже экзистенциально угрожающей.

«Несмотря на заявления об обратном, искусственные нейронные сети не являются «черными ящиками».

Итак, какой лагерь прав? Ответ может быть «ни то, ни другое»: большинство в обоих лагерях считают, что AGI является дискретным порогом, который будет (или не будет) преодолен когда-нибудь в будущем. На самом деле, похоже, что такого порога не существует, а если и есть, то мы, возможно, уже пересекли его.

Давайте сначала обратимся к скептикам. Для многих способность ИИ выполнять задачи — будь то чат, написание стихов, вождение автомобиля или даже что-то совершенно новое — не имеет значения, потому что способ реализации ИИ лишает его права быть по-настоящему умным. Эту точку зрения можно обосновать, утверждая, что мозг должен делать что-то иное, чем «простое» предсказание, что мозг не является компьютером или что модели ИИ просто не являются живыми. Следовательно, скептики часто считают, что применительно к ИИ такие термины, как «интеллект», «понимание», «агентность», «обучение» или «галлюцинация», требуют пугающих кавычек, потому что они неуместно антропоморфны.

Оправдано ли такое заламывание рук из-за дикции? Принятие функциональной точки зрения говорит об обратном. Мы называем крыло птицы и крыло самолета «крыльями» не потому, что они сделаны из одного и того же материала или работают одинаково, а потому, что выполняют одну и ту же функцию. Должны ли нас волновать, может ли самолет летать иначе, чем птица? Нет, если нас интересует цель, то есть почему у птиц и самолетов вообще есть крылья.

Функционализм является отличительной чертой всех «целеустремленных» систем, включая организмы, экологии и технологии. Все «целевое» состоит из взаимозависимых частей, каждая из которых служит целям (или функциям) для других. И эти части тоже часто сами состоят из более мелких, взаимозависимых и целенаправленных частей.

Явно или неявно, но многих скептиков ИИ волнует не столько то, что достигнуто (полет или интеллект), сколько то, как это достигается. Природе, однако, безразлично вопрос «как». Ради гибкости или надежности как инженерные, так и естественные системы часто предполагают замену или одновременное использование деталей, которые выполняют одну и ту же функцию, но работают по-разному. Например, в логистике грузы перевозят железные дороги и грузовики; Как клиент, вы заботитесь только о доставке. В ваших клетках аэробное или анаэробное дыхание может выполнять одну и ту же функцию, при этом анаэробный путь включается, когда вы тренируетесь слишком интенсивно, чтобы аэробное дыхание могло за ним угнаться.

Нервная система ничем не отличается. Он также состоит из частей с функциональными отношениями, и они также могут быть заменены на функциональные эквиваленты. В какой-то степени мы уже делаем это с кохлеарными имплантатами и искусственной сетчаткой, хотя эти протезы пока не могут приблизиться к качеству биологических ушей или глаз. В конечном счете, однако, нейропротезирование будет соперничать или превосходить органы чувств, с которыми мы рождаемся.

Однажды, возможно, мы даже сможем заменить поврежденную ткань мозга таким же образом. Это сработает, потому что у вас нет «гомункулуса», нет особенно незаменимого места в вашем мозгу, где живет «вы» часть вас. То, что делает вас вами, — это не какая-то одна часть вашего мозга или тела, или ваши атомы — они в любом случае часто вращаются, — и не детали того, как каждая часть вас реализована. Скорее, вы представляете собой очень сложный, динамичный набор функциональных отношений.

А как насчет моделей ИИ? Мало того, что LLM реализуются совсем не так, как мозг, но их отношения с нами также отличаются от отношений между людьми. У них нет тел или жизненных историй, родства или долгосрочных привязанностей. Такие различия актуальны при рассмотрении этического и правового статуса ИИ. Однако они не имеют отношения к вопросам способностей, таким как вопросы интеллекта и понимания.

Некоторые исследователи теоретически согласны со всеми этими предпосылками, но по-прежнему утверждают, что порог для ОИИ существует, и современные системы ИИ еще не пересекли его. Так как же мы узнаем, когда они это сделают? Ответ должен включать в себя контрольные показатели для проверки способностей, которые, по нашему мнению, составляют общий интеллект.

Было предложено многое. Некоторые из них, такие как «Корпус абстракции и рассуждения» исследователя искусственного интеллекта Франсуа Шолле, являются IQ-подобными тестами. Другие являются более целостными; Наши коллеги из Google DeepMind, например, подчеркивают необходимость сосредоточиться на способностях, а не на процессах, подчеркивая необходимость того, чтобы в целом умный агент был компетентен в «широком спектре нефизических задач, включая метакогнитивные задачи, такие как обучение новым навыкам». Но какие задачи стоит оценивать? Помимо определенных четко определенных навыков на конкурентных рынках, нам может быть трудно осмысленно разделить себя на «компетентных» (50-й процентиль), «экспертов» (90-й процентиль) и «виртуозов» (99-й процентиль).

«Ради гибкости и надежности как инженерные, так и естественные системы часто предполагают замену или одновременное использование деталей, которые выполняют одну и ту же функцию, но работают по-разному».

Первоначальное определение AGI датируется как минимум 2002 годом, и его можно описать проще всего как «общие когнитивные способности, типичные для человека», как выразились специалисты по информатике Питер Восс и Младжан Йованович в статье 2023 года. Но некоторые формулируют эти возможности только в экономических терминах. Веб-сайт OpenAI определяет AGI как «высокоавтономную систему, которая превосходит людей в наиболее экономически ценной работе». В 2023 году предприниматель в области искусственного интеллекта Мустафа Сулейман (ныне генеральный директор Microsoft AI) предположил, что искусственный интеллект будет в целом «способным», когда сможет заработать миллион долларов.

Такие пороги произвольны и не согласуются с тем, как мы думаем о человеческом интеллекте. Зачем вообще настаивать на экономической активности? Сколько денег нам нужно заработать, чтобы считаться умными, и разве те из нас, кто не успел накопить состояние, вообще не умны?

Конечно, мы мотивированы на создание ИИ перспективой обогащения или расширения человечества, будь то в научном, экономическом или социальном плане. Но экономические показатели производительности не являются ни прямолинейными, ни четко соотносятся с интеллектом. Они также исключают значительную часть человеческого труда, стоимость которого не учитывается экономически. Сосредоточение внимания на «экологической значимости» задач, то есть на том, имеют ли они значение для других, будь то в экономическом, художественном, социальном, эмоциональном или любом другом отношении, подчеркивает сложность любой чисто объективной оценки производительности.

Сегодняшние LLM уже могут выполнять широкий и постоянно растущий спектр когнитивных задач, которые несколько лет назад любой разумный человек согласился бы с необходимостью высокого интеллекта: от разбора сложных аргументов до написания кода, смягчения тона электронного письма и исследования темы в Интернете. Почти в любой конкретной области эксперт-человек все еще может добиться большего. (Это разрыв в производительности, который пытаются измерить многие современные методологии оценки.) Но давайте признаем, что ни один человек, каким бы умным он ни был, не обладает сравнимой широтой навыков. В последние несколько лет мы незаметно перешли от измерения производительности ИИ относительно кого-либо к оценке ее относительно всех. Иными словами, отдельные люди теперь менее «общие», чем модели ИИ.

Этот прогресс был быстрым, но непрерывным. Мы считаем, что цели продолжают двигаться отчасти потому, что ни одно продвижение не кажется достаточно решительным, чтобы оправдать объявление об успехе AGI. Всегда есть чем заняться. Тем не менее, мы считаем, что если бы исследователь ИИ в 2002 году мог каким-то образом взаимодействовать с любым из сегодняшних LLM, этот исследователь без колебаний сказал бы, что ОИИ уже здесь.

Одним из ключей к достижению «общего» в AGI является «неконтролируемое обучение», которое включает в себя машинное обучение без постановки задачи. Тонкая настройка и обучение с подкреплением обычно применяются впоследствии для улучшения определенных навыков и поведенческих атрибутов, но большая часть сегодняшней модели обучения является общей. Широкие возможности ИИ открываются благодаря обучению моделированию языка, звука, зрения или чего-либо еще. Как только модель может работать с такими модальностями в общем виде, то, подобно нам, ей можно поручить выполнить любую задачу — даже совершенно новую — при условии, что эта задача сначала описана, выведена или показана на примере.

Чтобы понять, как мы достигли общего искусственного интеллекта, почему это произошло только недавно, после десятилетий неудачных попыток, и что это говорит нам о нашем собственном разуме, мы должны пересмотреть наши самые фундаментальные предположения — не только об искусственном интеллекте, но и о природе самих вычислений.

Коллективный разум

«Гипотеза социального интеллекта» утверждает, что взрывы интеллекта у умных видов, подобных нашему, возникли из-за петли социальной обратной связи. Наше выживание и репродуктивный успех зависят от нашей способности заводить друзей, привлекать партнеров, получать доступ к общим ресурсам и, что не менее важно, убеждать других помогать заботиться о наших детях. Все это требует «теории разума», способности поставить себя на место другого: что другой человек видит и чувствует? О чем они думают? Что они знают, а чего не знают? Как они себя поведут?

Отслеживание психических состояний других людей является когнитивной задачей. У всех видов приматов исследователи наблюдали корреляцию между размером мозга и размером стаи. У людей объем областей мозга, связанных с теорией разума, коррелирует с количеством друзей, которые у них есть. Мы также знаем, что люди, у которых больше друзей, как правило, здоровее и живут дольше, чем те, кто социально изолирован. В совокупности эти наблюдения свидетельствуют о продолжающемся давлении отбора, благоприятствующем социальному мозгу.

«Мы незаметно перешли от измерения производительности ИИ относительно кого-либо к оценке ее относительно всех. Иными словами, отдельные люди теперь менее «общие», чем модели ИИ».

В то время как теория разума имеет макиавеллиевскую сторону, она также важна для продвинутых форм сотрудничества, которые делают людей особенными. Преподавание и обучение, разделение труда, поддержание репутации и умственный учет «долговых расписок» — все это опирается на теорию разума. Следовательно, то же самое происходит и с развитием любой нетривиальной экономики, политической системы или технологии. Поскольку племена или сообщества, которые могут сотрудничать в масштабе, функционируют как более крупные и способные целые, теория разума приносит не только индивидуальные выгоды; Это также приносит пользу группе.

По мере того, как это преимущество на уровне группы становится решающим, социальная агрегация умов склоняется в Большой Эволюционный Переход — симбиоз, если вы помните, в котором ранее независимые сущности объединяют свои силы, чтобы создать что-то новое и великое. Цена агрегации заключается в том, что ранее независимые субъекты больше не могут выживать и воспроизводиться самостоятельно. Это справедливое описание современного урбанизированного общества: многие ли из нас могли бы выжить в лесу в одиночку?

Мы – суперорганизм. Таким образом, наш интеллект уже коллективен и, следовательно, в каком-то смысле сверхчеловеческий. Вот почему, когда мы обучаем магистров права на коллективном продукте большого числа людей, мы уже создаем сверхинтеллект с гораздо большей широтой и средней глубиной, чем любой отдельный человек, даже несмотря на то, что LLM все еще обычно не дотягивают до отдельных экспертов в области знаний.

Именно это мотивирует Humanity's Last Exam, (довольно мрачно названную) недавнюю попытку создать эталон искусственного интеллекта, с которым магистры права пока не могут справиться. Тестовые вопросы были написаны почти 1000 экспертами в более чем 100 областях и требовали таких навыков, как перевод пальмирского письма с римского надгробия или знание того, сколько парных сухожилий поддерживается сесамовидной костью колибри. Эксперт-классик мог бы ответить на первый вопрос, а эксперт-орнитолог — на второй, но мы подозреваем, что средняя производительность человека на экзамене будет близка к нулю. Для сравнения, современные модели сегодня набирают от 3,3% до 18,8%.

Человечество является сверхразумным благодаря своему когнитивному разделению труда; В каком-то смысле это верно и для индивидуального мозга. Пионер искусственного интеллекта Марвин Мински описал «Общество разума», постулируя, что наши, казалось бы, единственные «я» на самом деле являются коллективным разумом, состоящим из множества специализированных взаимодействующих агентов. Действительно, наша кора головного мозга состоит из массива «корковых колонок», повторяющихся единиц нейронной цепи, многократно соединенных мозаикой, образуя протяженную поверхность. Хотя толщина коры головного мозга человека составляет всего от 2 до 4,5 миллиметров, ее площадь может достигать 2500 квадратных сантиметров (морщинистый вид мозга является следствием того, что в наши черепа запихивается эквивалент большой обеденной салфетки). Наша кора была способна быстро расширяться, когда этого требовало эволюционное давление, именно благодаря своей модульной структуре. По сути, мы просто добавили больше корковых столбцов.

Модульность коры головного мозга является не только развивающей, но и функциональной. Некоторые участки коры головного мозга специализируются на визуальной обработке, другие — на слуховой, осязании и так далее; третьи, по-видимому, специализируются на социальном моделировании, письме и счете. Поскольку эти задачи настолько разнообразны, можно предположить, что каждая соответствующая область мозга так же специализирована и отличается от другой, как посудомоечная машина по сравнению с ксероксом.

Но с корой головного мозга все по-другому: области начинают обучаться своим задачам, начиная с младенчества. Мы знаем, что эта способность к обучению является мощной и универсальной, учитывая существование областей коры головного мозга, таких как «область визуальной формы слова», которая специализируется на чтении — навыке, который появился слишком недавно в истории человечества, чтобы развиться в результате естественного отбора. Наша кора головного мозга не эволюционировала, чтобы читать, но она может этому научиться. Каждую область коры головного мозга, реализовав один и тот же общий алгоритм обучения, лучше всего рассматривать не как устройство с заранее определенной функцией, а как человека-эксперта, изучившего определенную область.

Эта перспектива «социальной коры» подчеркивает отсутствие гомункулуса или процессора в вашем мозге, где «вы» находитесь; Мозг больше похож на сообщество. Таким образом, его способность функционировать согласованно без центральной координации зависит не только от способности каждого региона выполнять свою специализированную задачу, но и от способности этих регионов моделировать друг друга — точно так же, как люди нуждаются в теории разума для формирования отношений и более крупных социальных единиц.

Функционируют ли сами области мозга как сообщества еще меньших частей? Мы верим в это. Корковые цепи построены из нейронов, которые не только выполняют специализированные задачи, но и, по-видимому, учатся моделировать соседние нейроны. Это отражает известную шутку «черепахи до самого низа» (намек на идею бесконечного регресса), предполагая, что интеллект лучше всего понимать как «социальный фрактал», а не как единую монолитную сущность.

«Функционируют ли сами области мозга как сообщества из еще меньших частей? Мы верим в это».

Это также может быть «черепахи до самого верха». По мере того, как мозг становится больше, люди могут становиться умнее; И по мере того, как людей становится больше, общества могут становиться умнее. Здесь существует любопытная петля обратной связи между масштабами, поскольку мы могли бы сформировать более крупные общества, только выращивая наш мозг для моделирования других, а сам наш мозг, по-видимому, увеличился благодаря аналогичному внутреннему разделению когнитивного труда.

Модели ИИ, по-видимому, подчиняются тому же принципу. Исследователи популяризировали идею «законов масштабирования», связывающих размер модели (и объем обучающих данных) с возможностями модели. В первом приближении большие модели умнее, так же как большие мозги умнее. И, как и мозги, модели ИИ также являются модульными. На самом деле, многие полагаются на явное обучение сплоченного «коллектива» специализированных подмоделей, известного как «Смесь экспертов». Более того, даже большие монолитные модели демонстрируют «эмерджентную модульность» — они также масштабируются, учась разделять себя на специализированные модули, которые могут разделять и властвовать.

Размышления об интеллекте с точки зрения социальности и разделения когнитивного труда на многих уровнях одновременно представляют собой глубокий сдвиг парадигмы. Это побуждает нас исследовать архитектуры искусственного интеллекта, которые больше похожи на растущие социальные сети, а не на статичные, все более крупные монолитные модели. Также будет важно позволить моделям (и подмоделям) постепенно специализироваться, формируя долгосрочное сотрудничество с людьми и друг с другом.

Любой из 1000 с лишним экспертов, которые внесли свой вклад в Humanity's Last Exam, знает, что вы можете узнать не так много из Интернета. За этой границей обучение неотделимо от действий и взаимодействия. Границы знаний расширяются, когда эти новые знания распространяются — независимо от того, возникают ли они в результате научных экспериментов, дискуссий или расширенного творческого мышления в автономном режиме (что, возможно, сводится к обсуждению с самим собой).

В сегодняшнем подходе к передовому искусственному интеллекту существующий человеческий продукт агрегируется и дистиллируется в единую гигантскую «базовую модель», вес которой впоследствии замораживается. Но модели ИИ готовы стать все более автономными и агентными, в том числе за счет найма или взаимодействия с другими агентами. ИИ уже полезен в кратких, целенаправленных взаимодействиях. Но если мы хотим, чтобы они помогали в более широком проекте расширения границ коллективных человеческих знаний и возможностей, мы должны дать им возможность учиться и диверсифицироваться интерактивно и постоянно, как это делаем мы.

Это, безусловно, встревожит некоторых, поскольку открывает двери для бесконечного развития возможностей ИИ — опять же, как это делаем мы. Сообщество специалистов по безопасности ИИ называет способность модели к неограниченному развитию «оптимизацией mesa» и видит в этом угрозу. Тем не менее, мы обнаружили, что даже сегодняшние модели ИИ являются оптимизаторами месы, потому что прогнозирование по своей сути включает в себя обучение на лету; Это то, что делает чат-бот, когда ему поручено выполнить новую задачу. Это работает, потому что, даже если веса нейронной сети чат-бота заморожены, каждый вывод использует все «контекстное окно», содержащее расшифровку чата на данный момент. Тем не менее, современные чат-боты страдают своего рода амнезией. Как правило, они не в состоянии сохранить свои знания за пределами чата или сеансов. Разработка Google «Infini-внимания» и долговременной памяти, которые сжимают старый материал для создания эффективных неограниченных контекстных окон, являются значительными недавними достижениями в этой области. Социальный взгляд на интеллект предлагает новые перспективы не только на инженерию искусственного интеллекта, но и на некоторые давние проблемы философии, такие как «трудная проблема» сознания. Если мы понимаем сознание как наше ясное ощущение себя как сущностей с нашим собственным опытом, внутренней жизнью и свободой воли, то его возникновение не является тайной. Мы формируем модели «я», потому что живем в социальной среде, полной «я», чьи мысли и чувства мы должны постоянно предсказывать, используя теорию разума. Конечно, нам нужно понимать, что мы тоже являемся «Я», не только потому, что наш собственный прошлый, настоящий и будущий опыт очень заметен, но и потому, что наши модели других включают их модели нас!

Эмпирические тесты для диагностики дефицита в теории сознания существуют уже несколько десятилетий. Когда мы проводим эти тесты на LLM, мы обнаруживаем, что неудивительно, что они работают примерно так же хорошо, как и люди. В конце концов, задачи на «я» и задачи по теории сознания занимают видное место в рассказах, диалогах и ветках комментариев, на которых обучаются магистры права. Мы полагаемся на теорию разума и в наших чат-ботах. В каждом чате ИИ должен не только моделировать нас, но и поддерживать модель себя в качестве дружелюбного, полезного помощника, а также модель нашей модели — и так далее.

Не только разработка ИИ как обычно

После десятилетий скудного прогресса в области искусственного интеллекта мы теперь быстро продвигаемся к системам, способным не только повторять индивидуальный человеческий интеллект, но и расширять наш коллективный интеллект больше, чем человеческий. Мы воодушевлены и надеемся на этот быстрый прогресс, признавая при этом, что это момент кардинальной смены парадигмы, сопровождаемой, как всегда, тревогой, дебатами, потрясениями и многими соображениями, которые мы должны правильно учесть.

В такие времена мы должны отдавать приоритет не только техническим достижениям, но и ходам конем, которые, как в шахматах, сочетают такие успехи с боковыми шагами в смежные области или парадигмы, чтобы открыть новую богатую интеллектуальную территорию, переосмыслить наши предположения и переосмыслить наши основы. Новые парадигмы потребуются для развития интеллекта, который принесет пользу человечеству, продвинет вперед науку и, в конечном счете, поможет нам понять себя — как индивидуумов, как экологию меньших интеллектов и как составляющие большего целого.


Источник: www.noemamag.com

Комментарии: