Интересуетесь природой самосознания? Спросите роботов!

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Загадка природы самосознания - крепкий орешек, поэтому Ход Липсон начал с самого простого — самосознающих роботов, которые могут помочь в понимании того, как мы мыслим.

"В течение своей жизни я хочу повстречать чужеродные виды, — говорит Ход Липсон, робототехник, который заведует Лабораторией интеллектуальных машин Колумбийского университета. — Я хочу встретить что-то, обладающее интеллектом, но не являющееся человеком". Но вместо того, чтобы ждать прибытия чего-то подобного, Липсон хочет сконструировать это самостоятельно — в форме машин с самосознанием.

Для этого Липсон открыто говорит об этой "скользкой" концепции, которая часто кажется запретной среди его коллег. "В кругах робототехники и искусственного интеллекта (ИИ) мы обычно называем сознание "С-слово", потому что нам не разрешено затрагивать этот вопрос, — замечает он. — Он слишком обтекаемый, никто не знает, что это значит, а мы серьёзные люди, и не собираемся иметь с этим никаких дел. Но, насколько мне известно, это почти единственный серьёзнейший вопрос без ответа, наряду с происхождением жизни и Вселенной. Что такое способность чувствовать или творчество, например? Что такое эмоции? Мы хотим понять, что значит быть человеком, но также стремимся разобраться, как создать эти вещи искусственно. Пришло время поставить эти вопросы ребром и без стеснения".

Одним из базовых структурных элементов способности ощущать и самосознания, по мнению Липсона, является "самосимуляция": построение внутреннего образа своего тела и того, как оно движется в физическом пространстве — а затем использование данной модели для управления действиями. Липсон занимался исследованием искусственной самосимуляции ещё в 2006 году с помощью робота, имеющего форму морской звезды, который использовал эволюционные алгоритмы (и несколько предустановленных "подсказок по физике"), чтобы обучать себя шлёпаться вперёд на столешницу. Но расцвет современных технологии ИИ в 2012 году (включая свёрточные нейронные сети и глубокое обучение) "изменил направление ветра в этой области исследований", отмечает он.

В начале 2019 года лаборатория Липсона показала роботизированную руку, которая использует глубокое обучение для формирования собственной внутренней модели с абсолютного нуля в процессе, который Липсон описал, как "напоминающий то, как лепечущий младенец изучает свои ручки". Самомодель робота позволяет ему точно выполнять две различные задачи — собирать и помещать маленькие шарики в чашку, и писать буквы маркером — без всякого специального обучения. Более того, когда исследователи симулировали повреждения телу робота, добавляя искривлённый элемент, робот обнаруживал изменение, обновлял самомодель в соответствии с ним, и был способен возобновить выполнение задачи.

Всё это, конечно, и рядом не стояло с роботами, которые способны на глубокие размышления. Но Липсон утверждает, что разница не так уж существенна. "Когда мы говорим о самосознании, люди думают, что робот должен проснуться и сказать: "Привет. Почему я здесь?", — говорит Липсон. — Но сознание — не что-то чёрно-белое. Оно начинается с банальных вещей, вроде: "Куда должна двинуться моя рука?" Это тот же самый вопрос, но в более коротком временном интервале".

Журнал Quanta побеседовал с Липсоном о том, как установить наличие сознания у роботов, почему это важно, и куда это может привести. Интервью было сжато и отредактировано для большей ясности.

Вы очевидно заинтересованы в серьёзных вопросах о природе сознания. Но почему вы подходите к ним через робототехнику? Почему вы не философ или нейроучёный?

В робототехнике мне нравится то, что она заставляет переводить ваши представления о чём-либо в алгоритм и механическую конструкцию. Не надо ходить вокруг да около, попусту тратить слова, говоря вещи вроде "ткань реальности", которые имеют различное значение для разных людей и являются слишком неопределёнными для перевода на язык машины. Робототехника заставляет вас быть конкретным и точным.

Я хочу построить одну из этих вещей, а не просто говорить о них. Философы, при всём к ним уважении, за тысячу лет не смогли добиться в этом заметного прогресса. Не из-за отсутствия интереса, не из-за отсутствия людей с мозгами — просто очень сложно подходить к этой проблеме сверху-вниз. Нейроучёные подходят к ней более математически. В то же время, считаю, им также мешает тот факт, что они рассматривают задачу сверху-вниз.

Если вы хотите понять сознание, зачем начинать с самого сложного сознающего существа, то есть человека? Умный в гору не пойдёт, так как это самый сложный путь. Давайте взглянем на более простые системы, которые, теоретически, легче для понимания. Вот то, что мы пытаемся сделать: смотрим на что-то очень тривиальное — [робота] с четырьмя степенями свободы — и спрашиваем: "Можем ли мы заставить эту вещь произвести самосимуляцию?".

Самосимуляция и самосознание — это одно и то же?

Система, которая может симулировать себя, в какой-то мере осознаёт себя. И степень, до которой она может симулировать себя — точность симуляции, может ли она симулировать себя в коротком или длинном временном интервале — всё это влияет на то, насколько она себя осознаёт. Такова базовая гипотеза.

То есть вы урезаете термин "самосознание" до более технического "самосимуляция" — способности строить виртуальную модель своего тела в пространстве?

Да, различные определения, которые мы используем, очень точны. Это математика, вы можете измерить, сосчитать, определить степень погрешности. Философ может сказать: "Это не то, что мы понимаем под самосознанием". Далее спор с ним становится беспредметным. Вы можете ставить под сомнение, что наше определение является самосознанием, но у нас есть нечто очень приземлённое и легко поддающееся оценке, потому что мы имеем эталонный тест. Эталонный тест — это традиционная, с разработанным вручную кодом самомодель, которую инженер загружает в робота. Мы хотим проверить, может ли ИИ-алгоритм разработать самомодель, которая не уступает или превосходит традиционную, написанную вручную.

Почему важно существование робота на физическом уровне? Почему не изучать самосознание в абстрактных системах?

Нас интересует закрытая система, которая потенциально может симулировать себя; и чтобы это сделать, у неё должны быть вводы и выводы, но также должны быть и границы — место, где ты можешь "нарисовать" собственное "я". Робот — это очень естественный вид чего-то подобного. У него есть возможность двигаться, органы чувств, физические пределы, с ним что-то происходит, и ему есть, что симулировать. Я робототехник, и это стало оптимальным выбором для меня.

Создаёт ли робот модель себя с "чистого листа"?

Мы начинали с "абсолютного нуля", просто из принципа, чтобы посмотреть, как далеко можем зайти. В предыдущем случае [с роботом, имеющем форму морской звезды] у нас не было вычислительных мощностей. Мы должны были сказать роботу: "Ты не знаешь, что ты такое и где твои части, но давай я тебе расскажу, что F=ma, и о прочих физических законах, в истинности которых мы не сомневаемся, и начни с этого".

Как ИИ справляется с этим?

Почему-то мы очень счастливы иметь роботов, которые изучают окружающий мир [используя ИИ], но когда доходит до дела, по какой-то странной причине, мы настаиваем на модели с разработанным вручную кодом. То, что мы сделали, достаточно банально. Мы сказали: "Давайте возьмём всю эту техническую базу, которую люди сформировали, чтобы помочь роботам изучать мир, и обратим её внутрь, на них самих".

Робот проделал 1000 движений, чтобы собрать данные для алгоритма глубокого обучения с целью создания самосимуляции. Это тот процесс, который вы описываете как "лепет младенца"?

Именно так. Робот размахивает вокруг своей конечностью и вроде как следит за положением её конца. Представьте, как вы двигаете мускулами и наблюдаете за кончиком вашего пальца. Это ваши входные и выходные данные. Робот "лепечет" таким образом 30 с лишним часов, и когда мы собираем все нужные данные, то дело сделано. С данного момента это превращается в вычислительную задачу [для создания самомодели].

Затем мы сломали робота [добавив искривлённую часть] и проделали всё заново. И мы увидели, как сломанный робот может начать с исходной модели и скорректировать её. Во второй раз ему не нужно начинать обучение с нуля. "Лепечущий" период существует, но гораздо меньший, чем требовался вначале — всего 10% [от начального].

Но ещё до того, как начать снова "лепетать", ему необходимо осознать — что-то не в порядке. Это очень впечатляет. Откуда он это узнаёт? Когда у вас есть самомодель, и что-то идёт не так, вы сразу же понимаете это, потому что, открыв глаза, видите свою руку не там, где она должна быть. Вы ожидаете, что она будет в пределах 4 см от заданной точки, но она внезапно обнаруживается в 16 см от неё. Вы немедленно получаете эту обратную связь. Так и робот сразу же узнаёт, что что-то не так. Затем ему требуется какое-то время, чтобы выяснить, как можно компенсировать эту погрешность, но даже сам факт осознания какой-то ошибки, мне кажется, очень важен.

А эта самомодель аналогична областям человеческого мозга, которые действуют как внутренняя карта тела?

Думаю, что так и есть. Именно поэтому это так примитивно и просто. Факт, что наш робот был механической рукой с четырьмя степенями свободы — то, что делает это возможным. Зайди речь о гуманоиде с 800 степенями свободы, и это могло бы стать слишком сложным для уровня ИИ, который мы имеем на данный момент.

Если это действительно является формой самосознания, то зачем она нужна роботам? Что в этом хорошего?

Это делает роботов намного более надёжными. Вы можете создавать модели для роботов вручную, как мы делаем сегодня, но это очень трудозатратно, и только тормозит нас. Когда робот в реальной жизни повреждается или ломается, у него отваливается колесо или неисправен мотор, тогда модель сразу же перестаёт быть правильной. И это может быть не просто производственный робот, который вкрутил шуруп не туда. Подумайте об автомобилях "без водителя", в которых мы доверяем наши жизни автономным роботам. Это очень серьёзная штука. Мы ведь хотим, чтобы роботы были способны обнаружить неисправность и делали это с высокой степенью точности.

Другая причина — это гибкость. Скажем, робот выполняет одну задачу, и в процессе её выполнения он постоянно обновляет свою самомодель. А потом ему нужно выполнить новое задание, к примеру, вкручивать шурупы в другое место, или ему необходимо распылять краску, а не вкручивать шурупы — он может использовать ту же самомодель для обучения и планирования выполнения этой новой задачи. Изнутри это выглядит тем, что мы называем "нулевое обучение" — это одна из тех вещей, которые, вероятно, может делать человек. Вы можете смотреть на дерево, на которое никогда не забирались, а затем подойти и влезть на него. Когда робот может моделировать себя, происходит похожее внутреннее обучение. Вы не видите, что он тренировался часами внутри собственной симуляции — всё, что вы видите, это то, что он выполнял одну задачу, затем постоял на месте какое-то время, и сразу же стал способен делать что-то новое без единой попытки.

Какова связь между роботами, которые могут создавать симуляцию собственного тела и роботами, которые могут иметь внутренние "мысли" - что-то, что звучит более похоже на простое понимание "самосознания"?

У нас есть другие проекты в разработке, которые касаются самомоделирования не физического тела, а мыслительного процесса. Мы лишь делаем первые шаги в обоих направлениях. Надо совершить "прыжок веры", чтобы убедить себя, что в конечном итоге наши попытки позволят достичь человеческого уровня познания и выйти за его пределы.

Так вы предполагаете, что эти два пути - самосимуляция тела и самосимуляция мозга - сойдутся в одной точке?

В точности так. Думаю, что это одно и то же. Такова наша гипотеза, посмотрим, как далеко мы сможем её продвинуть.

Оригинал статьи: https://www.quantamagazine.org/hod-lipson-is-building-self-aware-robots-20190711/Автор статьи: Джон ПавлусПеревод: Леонид Рогов


Источник: m.vk.com

Комментарии: