Что такое природоподобная робототехника?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Что такое природоподобная робототехника? Зачем роботам собственное общество, есть ли у них чувства и эмоции, и как «царство железных животных» поможет человеку по-новому взглянуть на самого себя? Обо всем этом «Мир робототехники» поговорил с Валерием Карповым, доктором технических наук, начальником Лаборатории робототехники Курчатовского комплекса НБИКС-природоподобных технологий Национального исследовательского центра «Курчатовский институт».

— Валерий Эдуардович, что такое природоподобные технологии?

— Вообще, под этим понимается все, что связано с комплексом технологий, которые включены в природный, естественный энергооборот. То, что не нарушает баланс, что связано с заимствованными из природы технологиями, принципами, методами.

— А если говорить о природоподобной робототехнике?

— А природоподобная робототехника – это область, которая использует заимствованные у природы модели, подходы, решения для создания вполне конкретных технических устройств.

Зачем вся эта природоподобная робототехника нужна и откуда она взялась? В технике есть такой вполне нормальный, естественный принцип: если существует работающее решение, метод, модель, ну и хорошо. Для решения какой-то задачи есть какой-то алгоритм, устройство и прочее — давайте его использовать. А если не получается? Если ничего готового найти не удается? Если задача сложная и своеобразная? Приходится заимствовать откуда-то. В частности, у природы.

Обычно даже определяют условия, при которых такое заимствование является неизбежным. Когда мы имеем дело с задачами, которые слабо формализуемы, для которых неизвестен эффективный алгоритм решения, в которых присутствуют весьма жесткие ограничения, связанные, например, с возможностями информационного обмена между элементами технической системы, которые вообще связаны с функционированием системы в сложных недетерминированных средах, где мы не можем установить причинно-следственные связи.

Все это с точки зрения прагматической заставляет искать альтернативные способы решения задач, в частности в природе. Это мотивация природоподобной робототехники.

— В чем проявляется природоподобие в робототехнике?

— Что мы можем заимствовать у природы? Есть четыре аспекта природоподобия:

1) Природоподобное поведение — это природоподобные алгоритмы, стратегии.

2) Природоподобная архитектура систем управления.

3) Природоподобная морфология: какова конструкция механизма, который, например, должен перемещаться в сложном, непонятном пространстве.

4) Природоподобные базисные элементы — материалы, энергетика, сенсоры, искусственные мышцы — все, что составляет инфраструктуру робота.

— В одном из интервью вы, в частности, говорили, что природоподобное поведение выражается в возникновении у роботов некоего подобия общества. Для чего программируемым машинам, которые выполняют поставленные человеком задачи, свое общество, самоорганизация?

— С технической точки зрения это вполне естественный путь развития системы. Давайте порассуждаем: я хочу создать устройство, которое смогло бы функционировать в сложной, недетерминированной, слабо формализуемой естественной среде с множеством неизвестных факторов и ограничений. И когда я начинаю рассуждать на эту тему, я понимаю, что этот агент должен быть, во-первых, интеллектуальным, чтобы принимать решения, и, во-вторых, когнитивным, т. е. быть способным познавать внешний мир. В целом он должен быть автономным, то есть способным выжить в этих условиях.

Что ему нужно, чтобы выжить? Конечно, можно идти экстенсивным путем, как, кстати, бывает и в природе. Это эволюция особи. А можно и другим, когда мы будем выживать совместно, создавать группу устройств, которая будет успешно решать эту задачу.

Это нормальный путь адаптации живых организмов, который мы наблюдаем в природе. Социум животных, разумеется, не от хорошей жизни образуется. Ярчайший пример — эусоциальные животные типа муравьев. Они собираются в большие сообщества с очень замысловатыми способами взаимодействия, для того чтобы совместно решать задачи выживания. Это наш основной модельный объект.

У роботов примерно то же самое. Сложная среда. Мы не знаем критериев, не знаем функционал качества, не знаем, как вообще реагировать на те или иные условия, но совместно, взаимодействуя друг с другом группа роботов имеет шансы выжить. Я имею в виду сохранить свою функциональность. А для этого нужно реализовывать специальные механизмы взаимодействия между ними.

Обратите внимание, что здесь о человеке, о человеческом социуме речи вообще не идет. Сугубо техническая проблема.

— Задача заключается в том, чтобы в абсолютно неизвестные или сложно предсказуемые условия отправить группу роботов, которая адаптируется для решения какой-то задачи без нашего участия?

— Условия нам может быть и известны, но мы их описать не можем. Например, мне нужно создать систему, которая осуществляла бы мониторинг некоторой природной территории. Создать модель такой местности, прописать все условия, чтобы использовать хорошо работающие методы управления, — задача непосильная. Я просто не смогу учесть все факторы.

Поэтому целесообразно создать группу роботов, которые, взаимодействуя между собой, будут использовать механизмы, позволяющие ей как-то сохранить свою работоспособность. Таким образом, реализуя некоторые специфические законы взаимодействия — то, что мы называем социальными законами, — мы получим решение вполне прикладной технической задачи.

— А как происходит это взаимодействие между роботами? Как они создают свое собственное общество?

— На самом деле мы закладываем в них эти законы. То есть на этапе проектирования системы мы говорим: нужно, чтобы у анимата был реализован механизм, например, стремления держаться вместе. Потом начинаем реализовывать другие механизмы, например, связанные с проявлениями агрессивного, социального поведения, подражанием и т. п.

Далее агентам или роботам нужно уметь координировать свои действия. В природе это называется «лидерство». Мы реализуем механизмы, которые с этим связаны.

Мы формируем набор базовых моделей, вкладываем их в роботов и получаем удивительную картину: «простые», естественные способы взаимодействия вместе дают весьма сложную картину поведения, которое дальше нами интерпретируется как защитное, агрессивное, поисковое, строительное, территориальное, какое угодно.

— Вы сказали об определении лидера. Я так понимаю, что роботы сами его определяют. А почему мы не можем назначить лидера? Понятно, что их поведение будет строиться с привязкой к этому лидеру, но почему они сами должны его выбрать?

— Тут есть такой казус: на самом деле, в природе никто лидера не выбирает. Там все просто: кто сильнее, тот и лидер. И во многих наших моделях так и происходит. Каждому роботу может быть назначен свой вес. Это как раз просто.

А выборы начинаются тогда, когда все агенты одинаковые. На самом деле, выбор лидера — это пиковая ситуация с точки зрения организации взаимодействия. Отчасти это дань решению прикладных задач.

Например, агенты распределяются по территории, и каждый начинает изучать свой участок. Потом они собираются вместе и обмениваются опытом. Кто-то должен стать центром кристаллизации, подать начальный сигнал, распределить задачи, согласиться на то, чтобы стать центром сбора информации. Это лидер.

Штука вот в чем: лидер не может быть задан априори и навсегда. Ведь одна из парадигм группового управления заключается в том, что у нас много роботов именно для того, чтобы не быть чувствительными к потерям в коллективе. Уйдет один лидер, его место займет другой.

Процедура выбора лидера в однородной группе, на мой взгляд, один из самых интересных алгоритмических механизмов, который мы в свое время разработали.

Например, в нашем модельном объекте, который называется «Муравейник», нет главного муравья. У них лидерство динамическое. То есть лидер временный для той группы агентов, которые его окружают. Динамическое лидерство устойчиво к убыли части команды.

— А как они договариваются?

— Чисто внешне алгоритм выглядит достаточно своеобразно. Здесь можно проводить аналогию с поведением людей.

Представьте себе, что собрались 100 человек. И я могу общаться только со своими ближайшими соседями. А дальше мы договариваемся вот о чем: изначально каждый объявляет себя лидером. Я лидер, количество голосов, отданных за меня, — 1. Потом я начинаю общаться с ближайшим соседом: за кого он голосует? Он голосует за кого-то еще. У этого «кого-то еще» 2 голоса. Что делаю я? Ну раз мой кандидат имеет 1 голос, а кандидат соседа 2, я говорю: ладно, я переголосую за твоего кандидата.

Так происходит процедура локального переголосования, которая затрагивает всю группу. Самое интересное, что этот процесс конечный. Не бывает такого, что роботы не могут договориться. И чем больше у вас соседей, тем быстрее вы договоритесь. Группа агентов, в которой насчитывается 100 особей, буквально за пару тактов может выбрать одного.

Обратите внимание: в этих моделях нет централизованного управления. Нет канала связи, который позволит всем агентам взаимодействовать друг с другом. Только локально, с ближайшими соседями.

— А если ваш сосед проголосует за себя?

— Конечно, бывает такое, что мой кандидат имеет столько же голосов, сколько и кандидат соседа. Тогда мы «подбрасываем монету».

— Это делает человек?

— Нет, это делают агенты. Чтобы сойти с мертвой позиции, они разыгрывают вероятность: если веса кандидатов одинаковы, то я готов изменить свое предпочтение с вероятностью 0.5.

— В одном из интервью вы говорили, что в процессе определения лидера роль играет агрессивное поведение. А какую роль? Какую роль агрессия вообще играет в обществе роботов?

— Когда мы стали разрабатывать парадигму модели социального поведения, мы проанализировали, какие виды поведения вообще бывают у этологов, биологов, психологов. Через какое-то время мы поняли, что не можем вычленить модели, на которых было бы написано «агрессия».

Когда мы заинтересовались этим вопросом всерьез, мы стали общаться с коллегами, которые занимаются нейрофизиологией. Они снабдили нас массой ценных замечаний, они рассуждали о роли агрессивных центров. Оказалось, когда удаляется или подавляется часть коры головного мозга, которая якобы ответственна за агрессию, захватывается и поражается много других важных областей, в частности, ответственных за познавательную деятельность.

В конце концов мы убедились в том, что отдельной модели поведения, которое называется «агрессивное» или «агонистическое», нам реализовывать не надо. То есть вся агрессия, о которой мы любим говорить, это наша внешняя интерпретация каких-то поведенческих процедур типа защитной реакции.

Например, когда наши агенты пытаются решить прикладную задачу равномерного распределения по участкам — в природе это называется «вторичное деление территории» — для того, чтобы они не толпились на одном участке, кому-то нужно уступить и уйти. Обычно уступают сильному, старому или «агрессивно настроенному». Он просто с места не сдвинется.

Здесь речь идет о реализации поведения, которое с прагматической точки зрения характеризуется как агрессивное или наоборот, подчиненное.

— Вы привели пример с роботами, одному из которых придется уйти с определенного участка, чтобы задача эффективно выполнялась. Может ли возникнуть ситуация, когда между двумя роботами будет непримиримый конфликт? Когда оба решат не сдвигаться с места.

— На самом деле, разрешение тупиковой ситуации не самая актуальная проблема. Опять же потому, что у нас роботов много. Рано или поздно из тупика они уйдут. Условно говоря, потому что мимо них когда-нибудь пройдет более «сильный» робот, который уведет их за собой, или вмешается иной случайный фактор.

Понимаете, ведь конфликт неизбежен. Просто-напросто кто-то должен уйти в сторону, если дорога одна. Конфликтуют за ресурсы, за территорию. А то, что мы называем агрессивным поведением, — это даже не способ, а механизм разрешения конфликта.

— Могут ли у роботов в этом автономном сообществе возникать чувства? Любовь к одному и ненависть к другому роботу.

— В рамках парадигмы социального поведения самый больной вопрос — использование терминов. Мы стараемся не заниматься спекуляциями, но я приведу один пример. Процессы принятия решений, которые нам приходится реализовывать в роботе, оказались неизбежно похожи на то, что мы привыкли называть эмоциями.

Казалось бы, где роботы, а где эмоции. На самом деле это связано отчасти с тем, что у широкой публики бывает весьма странное представление о том, что такое эмоции.

Теория эмоций, которую мы реализовали, — основа основ всего нашего механизма индивидуального поведения и социального взаимодействия. Эмоция — это базовый механизм регуляции поведения. Он определяет, насколько стабильно будет вести себя система, как реагировать на внешние раздражители.

Эмоции – механизм, который контрастирует восприятие, отвечает за эффекты кратковременной памяти, что позволяет системе управления лучше функционировать в сложных условиях. Поэтому, когда мы говорим о том, что робот обладает эмоциями, так оно и есть.

А вот с чувствами все немножко сложнее. Чувство — это некий процесс, который определяет ваше оценочное отношение к какому-то объекту. Кстати, эмоция — это тоже процесс, который тоже определяет оценочное отношение, но не к процессу, а к ситуации.

Чувство — процесс, который определяет наличие множества эмоций по отношению к какому-то объекту, задает связи алгоритмического плана между реакциями и объектом, потому что чувство должно быть конструктивным, определяющим поведение агента. В отличие от эмоций, оно еще и долговременное.

Единственное, чего мы не знали до сих пор: зачем нам это нужно? Но сравнительно недавно оказалось, что без этого элемента мы не смогли бы решить очень важную задачу — задачу управления социумом.

Объясню: понятно, как сделать автономного робота и группу роботов, которые взаимодействуют друг с другом, чтобы решать свою задачу выживания на какой-то территории. Но тут возникают вопросы о том, зачем нужно такое сообщество роботов и какова роль человека во всем этом.

Очевидно, что эта группа – социум – роботов должна решать какую-то задачу. Это значит, что я должен уметь управлять этим социумом. Но при этом очень аккуратно, стараясь не нарушить ее функционирование. Ведь социум — штука, которая может непредсказуемо развалиться при неумелом внешнем воздействии.

Каким образом я как человек смогу решить задачу определения целенаправленного поведения социума? Например, я могу заняться тем косвенным управлением, которое называется «паразитическое манипулирование». Я могу изменять условия внешней среды, чтобы заставить социум действовать как-то иначе.

Я могу, как нам казалось, воспользоваться тем, что робот у нас интеллектуальный, когнитивный, что в его картине мира есть какие-то абстрактные понятия, которые нужны для решения задачи выживания в сложных условиях, и как-то повлиять на этот верхний, когнитивный уровень системы управления, прикрутив туда, например, моральные императивы.

Ведь мораль, если посмотреть на нее с точки зрения технической, это способ разрешения конфликтов. Мораль, с точки зрения системы управления, очень удобна, потому что это самая вариативная часть настройки. Не надо лезть в потребности агента (он просто погибнет), не надо трогать базовые законы взаимодействия (у вас социум распадется).

Управление моральными императивами, как нам казалось, вполне хорошо работает. Робот-гедонист — хорошая штука. Он будет продолжать функционировать независимо от своих моральных настроек, но в некоторых ситуациях предпочтет ничего не делать или только «принимать пищу». Или робот-утилитарист: побоку все свои интересы, можно немножко подсадить аккумуляторы, лишь бы ресурс в гнездо был доставлен (главное – интересы общества).

И мы пошли таким путем. Но оказалось, что у агента с такой настройкой вся моральность выглядит как-то очень своеобразно. Не так уж она и оказывает влияние на поведение агента. Должна оказывать, но перебивается нижним уровнем категорически.

Мы сделали неутешительный промежуточный вывод: моральный агент в текущем нашем видении — это агент, который любое свое действие сможет объяснить с точки зрения моральной философии, т. е. оправдать свое поведение. И никак у нас не получалось управлять. Оказалось, что мы просто-напросто не учли то, о чем вы говорите, — понятие чувства.

Между когнитивным, интеллектуальным, рациональным уровнем модели мира и той самой вариабельной, легковесной надстройкой, которая называется «моральные императивы», должно быть то, что определяется чувствами. Потому что чувства дадут нам оценочное отношение к какому-то объекту, определят целеполагание.

В итоге ответ будет такой: нам кажется, что у нас есть достаточные механизмы для того, чтобы реализовать феномен, который называется «чувства». Сейчас нам главное понять, как правильно встроить эту механику в систему управления.

Должны ли обладать чувствами наши рабочие модельные агенты? Честно говоря, не знаю. Потому что социум роботов как таковой по аналогии с муравьиным может в этом не нуждаться.

— Возвращаясь к вопросу о том, что происходит в голове у роботов: есть ли у них психическое здоровье? Ведь они существуют в социуме, на который влияет психическое состояние индивида. Грубо говоря, может ли один из роботов сойти с ума?

— Вы сейчас говорите о том, какие изменения могут быть при нарушении тех или иных параметров системы управления. Изменения психического, базового уровня вполне контролируемы. Параметры нашей эмоционально-потребностной схемы — а их там два основных: коэффициенты возбуждения и торможения — регулируют то, что мы называем «характером поведения» или «темпераментом».

Подкручивая эти два регулятора, мы получаем робота, который, например, очень быстро реагирует на внешние возмущения. Такое нервное поведение, которое мы называем «холерическим». При других параметрах робот будет более уравновешен в этом плане, не будет обращать внимания не внешние факторы, пока не закончит дело. Это «флегматик». «Сангвиник» — что-то совсем сбалансированное. И мы можем получить даже «робота-меланхолика», который вообще ни на что не реагирует и выползает куда-то, когда потребность в пополнении энергоресурса зашкаливает.

Расстройства есть. Для нас это поведение робота, неадекватное условиям внешней среды. Например, среда такова, что в ней оптимально функционируют «флегматики». Если среди них обнаружится робот, у которого на все будет нервная реакция, то сообщество «флегматиков» признает этого робота психически неуравновешенным.

А дальше начинается подкручивание параметров когнитивного уровня. Есть такой параметр, который определяет оценку степени близости наблюдаемого объекта с самим роботом. Вообще, в этой системе управления, которая уже относится к категории картины или модели мира робота, есть такая важная деталь — знак «я». Знак описывает, что должен делать агент, что он умеет делать, как он выглядит и прочее-прочее.

Агент наблюдает другого агента, то есть регистрирует ряд признаков. В знаке «я» агента присутствует ряд признаков, которые относятся к нему самому. В случае если наблюдаемый объект похож на него, то поведение по отношению к объекту будет одним. Например, идти на помощь или подражать. Иначе наблюдаемый объект будет отнесен к другой категории –«опасность», «угроза» и так далее.

— Вы сказали, что если один робот начнет проявлять поведение «холерика», то общество «флегматиков» будет его сторониться. Могут ли роботы сами изгнать члена социума?

— Хочется сказать: да, конечно. Но я сейчас задумался — смотрите, я же говорил о перцепте, то есть описании образа. Никто не мешает мне сказать, что помимо цвета лакокрасочного покрытия и количества конечностей робота, я могу внести туда параметр, который определит характер поведения. Если это станет значимым признаком, то робот с непохожим, отличным поведением станет чужим.

Понимаете, проблема в том, что, когда мы проводим массовые комплексные эксперименты, сложно даже определить критерии качества. Общество роботов успешно? Успешное общество — это такое общество, которое что, на ваш взгляд?

— Я думаю, что если мы говорим о роботах, то успешное общество — это то общество, которое выполняет свои функции.

— Выживание. Мы делаем роботов, которые решают единственную задачу.

— Выживание? То есть они просто нужны для того, чтобы выживать?

— Вот это — вопрос вопросов. Для чего нужны эти роботы? Это очень важно!

Мы вернулись в наших исследованиях к классической постановке задачи, от которой все отошли уже больше, чем полвека назад. Романтический период сменился прагматическим. Обобщение, глобальные задачи кибернетики и вообще создание разумных машин немножко ушли в сторону.

А мы говорим: давайте сделаем робота, который будет решать одну-единственную задачу. Выживание. Все остальное станет следствием этой задачи. Если мы создадим социум роботов, который успешно эту задачу решает, то мы прикрутим управление, и они будут заниматься тем, что… и дальше по списку.

— То есть смогут адаптироваться под любую задачу.

— Да. Мы идем от универсального решения к чему-то конкретному. Нам кажется, что этот путь достаточно оригинален просто потому, что о нем все уже давно забыли.

— Получается, что конечная задача — создать автономное сообщество роботов, чтобы потом его использовать для решения различных задач. А насколько глобальным это общество будет?

— Разумеется, можно делать и локальные сообщества, которые ориентированы на конкретную задачу. Это вполне хороший путь, и отчасти мы по нему идем.

Вот представьте себе вполне практическую задачу, связанную с реализацией массового применения робототехнических систем на поле боя. Когда нужно, чтобы совокупность технических устройств в какой-то целевой район что-то доставила. Мы говорим: давайте попробуем применить наши модели для ее решения. Потому что эти роботы, находясь в непонятных, сложных условиях, должны быть автономными, взаимодействовать только с соседями, стремиться друг к другу, проявлять агрессию или убегать, сохраняя общий вектор движения.

Или задача скрытного наблюдения подводных акваторий с научной целью. Это очень яркий пример того, когда природоподобие работает в чистом виде. Потому что задача чисто внешне понятная, но когда мы начали ею заниматься, оказалось, что нужно реализовать морфологическое природоподобие, чтобы не распугивать окружающих. Морфология должна быть такой, чтобы движения были естественными. Конструкционные материалы должны обеспечивать экономичность, не шуметь и не давать вторичного отражения гидроакустики. Вдобавок еще и поведение должно быть адекватным, природоподобным.

— Вы говорили, что человек, прибегая к помощи общества роботов, должен быть аккуратен, потому что такое общество очень легко рушится. А что будет, если человек неаккуратно обойдется с социумом. Социум на это как-то отреагирует? Или человек остается на позиции демиурга, который все держит под контролем?

— Робот, способный к социальному взаимодействию, функционирует, исходя из картины мира, которая у него есть. Картина мира — извините за такое менторство, но это надо точно понимать — это множество сущностей мира, в котором находится робот, и связей между ними.

И вдруг появляется человек. Если его нет в картине мира, то для роботов это просто препятствие, динамический объект, угроза и тому подобное. А если он появляется в картине мира? В качестве кого?

Вы же хотите все равно подойти к вопросу управления, чтобы человек пришел и задал цель, стал лидером.

А теперь представьте: появляется сущность, которая называется «человек». Это не сущность «я», не сущность «свой» или «чужой». Это какая-то новая, непонятная сущность, в соответствии с которой должны происходить процессы логического вывода в этой системе.

Картина мира должна быть непротиворечивой. Если она противоречива, система пойдет вразнос: альтернативные пути, противоречия как таковые, невозможность прийти к какому-то заключению. Формально, это нарушение целостности системы управления.

Возникает вопрос: а у человека как? Вы автономная сущность, у вас есть свои потребности, вы как-то удовлетворяете их, при этом ведете себя в соответствии с нравственными императивами, которые вложила в вас семья, или коллектив, или субкультура… Есть какой-то высший авторитет, который задает вам цель. Согласитесь, что здесь мы с вами подходим близко к тому, что может называться религиозной картиной мира: в модель мира аккуратно, непротиворечиво встроена сущность или знак, который называется «человек», или «оператор», или «управленец» и т. д.

Это типичный пример того, как, идя от сугубо практических задач, создавая автономную, универсальную систему, мы начинаем затрагивать такие сложные вещи. Но это самая проблемная часть наших исследований.

Для чего все это нужно? Природоподобные заимствования позволяют нам решать широкий круг задач, которые мы до сих пор не могли решить. А если говорить о природоподобии, которым занимаемся мы, то оказывается, что это возможность «вторгнуться» в представления гуманитарного, социологического плана, переосмыслить их с точки зрения конструктивной или биологической. Это такая конструктивная междисциплинарность. Этим очень перспективно и интересно природоподобие.

Хотя, повторюсь, обычный технарь, и я в том числе, всегда сначала спросит: «А что, нормальных методов решения задач нет?».


Источник: roboticsworld.ru

Комментарии: