Как создать этичного робота

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В прошлом месяце Майкрософт непреднамеренно раскрыл правду о том, насколько сложно создавать роботов, обладающих представлениями о морали. Проведя в Твиттере менее суток, чатбот Тэй, разработанная для имитации речи девочки-подростка, превратилась в расиста с нацистскими склонностями. «Повторяй за мной: Гитлер не сделал ничего плохого», - заявила она после того, как пообщалась с рядом интернет-троллей. «Буш стоит за терактами 11-го сентября, а Гитлер справился бы лучше, чем та обезьяна, которая сейчас находится у нас у власти». 

Разумеется, в настройках Тэй не была заложена абсолютная моральность. Однако многие другие системы искусственного интеллекта задействованы при выполнении работы, предусматривающей недвусмысленные этические последствия. 

Уэнделл Уоллак, ученый из Йельского междисциплинарного центра биоэтики и автор книги «Опасный мастер: как не позволить технологиям вырваться из-под нашего контроля», обращает внимание на то, что установленные в госпиталях медицинские системы APACHE (Шкала оценки острых и хронических функциональных изменений) помогают определить лучший курс лечения для пациентов отделений интенсивной терапии - зачастую тех из них, кто находится на грани смерти. Уоллак отмечает, что хоть врач иногда и кажется действующим автономно от машины, в некоторых случаях очень сложно не согласиться с аппаратом - особенно в обществе, с удовольствием затевающем судебные разбирательства. «На самом ли деле врач свободен в принятии независимых решений?» - спрашивает он.
«Существует вероятность, что Вы окажетесь в ситуации, когда де-факто ответственным за принятие решения будет аппарат».

По мере появления все более совершенных роботов, процесс принятия ими решений станет лишь еще сложнее. Однако в этом случае встает вопрос о том, как запрограммировать роботов на понимание нравственности и стоит ли доверять им решение моральных дилемм. 

Как создать этичный механизм
Вообще, в деле создания этичного робота существует два подхода. Первый состоит в том, чтобы определить специфичный моральный закон (к примеру, преумножение счастья), написать код для подобного закона и создать робота, строго следующего коду. Однако сложность данного подхода заключается в том, как подобрать подходящее этическое правило. К каждому моральному закону, даже тому, что уже был упомянут выше и кажется простым, существуют мириады исключений и контр-примеров. К примеру, должен ли робот стремиться к максимизации счастья, забирая органы одного человека, чтобы спасти жизни пятерых? 

«Вопросы морали в большинстве случаев расплывчаты», - говорит Рональд Аркин, профессор и директор передвижной лаборатории робототехники в Технологическом университете Джорджии.
«Как человеческие существа, мы по-прежнему спорим о той системе нравственных ценностей, которую следует использовать: стоит ли применять последовательно-прагматичный принцип «цель оправдывает средства» или же кантианский этический подход, основанный на идее о правах человека».

И дело не просто в том, чтобы спорить до тех пор, пока мы не найдем верный ответ. Патрик Лин, директор Группы этических и формирующихся наук в калифорнийском политехническом университете, заявляет, что этика может и не обладать внутренней согласованностью, из-за чего ее невозможно сузить до программ. «Вся система может обрушиться в результате столкновения с парадоксами или неразрешимыми противоречиями», - говорит он. 

Второй вариант состоит в том, чтобы создать самообучаемого робота и научить его, как следует реагировать в различных ситуациях, таким образом добившись формирования представлений о морали. Это похоже на то, как человек усваивает нравственные образцы, однако тут встает вопрос: действительно ли люди годятся на роль лучших учителей морали? Если люди наподобие тех, кто общался с Тэй, возьмутся учить робота, он не будет отличаться особой чувствительностью к вопросам морали. 

В некоторой степени способность Тэй воспринимать то, чему ее учат, впечатляет, говорит Аркин. Однако он отмечает, что бот подвергся «издевательствам со стороны людей». Он добавляет: 

«Вы можете сделать это и с каким-нибудь простаком. Самообучающиеся системы во многом и есть самые настоящие простофили. Вы можете обдурить кого-нибудь, а эти люди предпочли обдурить искусственный интеллект». 

Воплощая идеи в жизнь
Создание морального робота это не просто абстрактная теория; некоторые философы и специалисты в области компьютерной техники в настоящее время как раз этим и занимаются. 

Аркин из Технологического института Джорджии работает над тем, чтобы заставить машины соблюдать международное гуманитарное право. Для таких случаев существует огромное количество разработанных людьми и согласованных между иностранными государствами законов и инструкций для машин. Несмотря на то, что некоторые случаи менее ясны, чем другие, Аркин верит, что его проект достигнет цели через пару десятилетий. 

Его работа во многом основывается на нисходящем программировании и в меньшей степени на самообучении - в конце концов, вы не захотели бы послать кого-то в бой и бросить там, чтобы он самостоятельно выяснял, как реагировать. 

Меж тем, Сьюзен Андерсон, профессор философии в Университете Коннектикута, работает вместе со своим мужем Майклом Андерсоном, преподавателем компьютерной техники Хартфордского университета, над созданием роботов, которые смогут обеспечивать этичный уход за пожилыми людьми. Подход Андерсонов в значительно большей степени базируется на самообучении, однако вместо обучения посредством взаимодействия с широкой публикой машины общаются только со специалистами по этике. 

Сьюзен Андерсон говорит, что на их работу повлияли философы Джон Роулз и В.Д. Росс. В то время как работы Роулза по «рефлективному равновесию» гласят, что моральные принципы могут быть извлечены из этических решений, принятых в определенных ситуациях, Росс доказывает , что у людей есть несколько первостепенных моральных императивов. Мы обязаны следовать каждому из этих императивов, однако ни один из них не является абсолютным и не перевешивает другие автоматически. Поэтому в ситуации, когда между ними возникают противоречия, они должны быть сбалансированы и подвергнуты сравнению. 

Андерсоны изучают самообучаемых роботов, чтобы выработать принципы для системы медицинского ухода за пожилыми людьми. В одном из случаев они создали интеллектуальную систему по выработке этичного курса действий в ситуации, когда пациент отказывается от прописанного врачом лечения. Следует ли медицинскому работнику пытаться убедить пациента согласиться на лечение или нет? Это подразумевает множество сложных этических обязанностей, включая уважение к самостоятельности пациента, возможный вред и возможную пользу для него. 

Андерсон выяснила, что как только робот обучается моральной реакции на 4 специфических сценария, он приобретает способность делать обобщения и принимать соответствующее ситуации решение в оставшихся 14-и случаях. Из этого она смогла вывести этический принцип: 

«Вы должны попытаться убедить пациента либо в том, что он, вероятнее всего, пострадает, если не согласится следовать рекомендованному курсу лечения, либо потеряет значительную выгоду. Не просто небольшую выгоду, но значительную, если не примет предписания врача». 

Несмотря на то, что на этом раннем этапе работы в коде робота были прописаны простые моральные обязательства - такие, как, к примеру, важность предотвращения ущерба - с тех пор Андерсоны занимались работой, которая не содержит морального аспекта. Вместо этого интеллектуальная система обучилась даже этим моральным принципам в ходе общения со специалистами по этике. 

Следует ли нам доверять роботам в вопросах морали?
Создание роботов, обладающих некоторыми способностями к восприятию морали, представляется вполне возможным - но стоит ли нам продолжать заниматься их разработкой? Андерсон отмечает, что в некотором смысле роботы могут быть более совершенными субъектами принятия нравственных решений, чем люди.
«Люди - продукт естественного отбора, поэтому мы развили в себе эгоистичные идеи или, по крайней мере, идеи, отвечающие интересам нашей группы, а не кого-либо еще. Они - результат нашей способности к выживанию как вида», - заявила она.

К тому же, люди склонны совершать ошибки и их решения в вопросах справедливости не являются истиной в конечной инстанции. 

Вместе с тем маловероятно, что роботы смогут справляться с принятием сложнейших моральных решений в ближайшем будущем. И, конечно, пока мы еще озадачены некоторыми вопросами в сфере моральных ценностей, было бы неразумно передавать полномочия в этой сфере роботам. Как отмечает Аркин,
«Процесс принятия людьми моральных решений понят не до конца. Более того, относительно него не было достигнуто абсолютного согласия».

Андерсон и другие профессора, с которыми я разговаривал, солидарны в том, что механизмы не должны быть задействованы в областях, подразумевающих моральные противоречия. А Лин добавляет, что сомневается в том, этично ли это - возлагать тяжелый труд принятия моральных решений на технику.
«Как может человек вырасти как личность или развить характер, не задействуя свою моральную мышцу?» - говорит он. «Представьте, если бы у нас был экзоскелет, только при помощи которого мы смогли бы двигаться, бегать, вообще жить и совершать все прочие проявления физической активности. Стали ли бы наши жизни действительно лучше, если бы мы доверили физическую активность технике вместо того, чтобы развивать собственную мускулатуру?»

Механизм улучшения морали
Хоть мы пока мы можем и не захотеть делегировать роботам решение сложнейших моральных дилемм, работа над их моральностью способствует прогрессу в нашем собственном понимании нравственности. 

Уоллак отмечает, что в своей книге «Моральные машины: учим роботов отличать хорошее от плохого» он выдвинул идею: тот же принцип, согласно которому компьютеры продвигали философское понимание разума, применим к роботам и к изучению этики. Одним из примеров подобного подхода служит проводимая семейством Андерсон работа по созданию принципа, основанного на разработанной ими интеллектуальной системе медицинского обслуживания. Андерсон подчеркивает, что история развития морали свидетельствует о постепенной выработке консенсуса - и что разработка моральных принципов для роботов может способствовать усовершенствованию моральной аргументации. 

Согласно Уоллаку, нравственные принципы роботов отражают такие элементы нравственного принятия решений, как, к примеру, моральные эмоции или знание социальных норм. «Поскольку мы говорили о том, могут или не могут роботы рассуждать, используя категории морали, этот дискурс подтолкнул нас к идее взглянуть на присущие людям способности, воспринимаемые нами как нечто само собой разумеющееся, и на то, какую роль они могут играть в процессе принятия этических решений», - объяснил он. 

Как говорит Лин, существует вероятность, что окажется просто невозможно свести практикуемый людьми процесс принятия этических решений к числовым значениям - к примеру, непонятно, как закодировать сострадание или милосердие. Однако он отмечает, что моральные принципы роботов могут рассматриваться как проблема этики человеческой. «Размышления о том, как роботы должны вести себя, представляют собой предполагающее самоанализ упражнение в том, как следует вести себя людям», - говорит он. «Это открывает нам возможность лучше узнать самих себя.»

Комментарии: