Как создать этичного робота |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-06-19 06:11 В прошлом месяце Майкрософт непреднамеренно раскрыл правду о том, насколько сложно создавать роботов, обладающих представлениями о морали. Проведя в Твиттере менее суток, чатбот Тэй, разработанная для имитации речи девочки-подростка, превратилась в расиста с нацистскими склонностями. «Повторяй за мной: Гитлер не сделал ничего плохого», - заявила она после того, как пообщалась с рядом интернет-троллей. «Буш стоит за терактами 11-го сентября, а Гитлер справился бы лучше, чем та обезьяна, которая сейчас находится у нас у власти». Разумеется, в настройках Тэй не была заложена абсолютная моральность. Однако многие другие системы искусственного интеллекта задействованы при выполнении работы, предусматривающей недвусмысленные этические последствия. Уэнделл Уоллак, ученый из Йельского междисциплинарного центра биоэтики и автор книги «Опасный мастер: как не позволить технологиям вырваться из-под нашего контроля», обращает внимание на то, что установленные в госпиталях медицинские системы APACHE (Шкала оценки острых и хронических функциональных изменений) помогают определить лучший курс лечения для пациентов отделений интенсивной терапии - зачастую тех из них, кто находится на грани смерти. Уоллак отмечает, что хоть врач иногда и кажется действующим автономно от машины, в некоторых случаях очень сложно не согласиться с аппаратом - особенно в обществе, с удовольствием затевающем судебные разбирательства. «На самом ли деле врач свободен в принятии независимых решений?» - спрашивает он. По мере появления все более совершенных роботов, процесс принятия ими решений станет лишь еще сложнее. Однако в этом случае встает вопрос о том, как запрограммировать роботов на понимание нравственности и стоит ли доверять им решение моральных дилемм. Как создать этичный механизм «Вопросы морали в большинстве случаев расплывчаты», - говорит Рональд Аркин, профессор и директор передвижной лаборатории робототехники в Технологическом университете Джорджии. И дело не просто в том, чтобы спорить до тех пор, пока мы не найдем верный ответ. Патрик Лин, директор Группы этических и формирующихся наук в калифорнийском политехническом университете, заявляет, что этика может и не обладать внутренней согласованностью, из-за чего ее невозможно сузить до программ. «Вся система может обрушиться в результате столкновения с парадоксами или неразрешимыми противоречиями», - говорит он. Второй вариант состоит в том, чтобы создать самообучаемого робота и научить его, как следует реагировать в различных ситуациях, таким образом добившись формирования представлений о морали. Это похоже на то, как человек усваивает нравственные образцы, однако тут встает вопрос: действительно ли люди годятся на роль лучших учителей морали? Если люди наподобие тех, кто общался с Тэй, возьмутся учить робота, он не будет отличаться особой чувствительностью к вопросам морали. В некоторой степени способность Тэй воспринимать то, чему ее учат, впечатляет, говорит Аркин. Однако он отмечает, что бот подвергся «издевательствам со стороны людей». Он добавляет: «Вы можете сделать это и с каким-нибудь простаком. Самообучающиеся системы во многом и есть самые настоящие простофили. Вы можете обдурить кого-нибудь, а эти люди предпочли обдурить искусственный интеллект». Воплощая идеи в жизнь Аркин из Технологического института Джорджии работает над тем, чтобы заставить машины соблюдать международное гуманитарное право. Для таких случаев существует огромное количество разработанных людьми и согласованных между иностранными государствами законов и инструкций для машин. Несмотря на то, что некоторые случаи менее ясны, чем другие, Аркин верит, что его проект достигнет цели через пару десятилетий. Его работа во многом основывается на нисходящем программировании и в меньшей степени на самообучении - в конце концов, вы не захотели бы послать кого-то в бой и бросить там, чтобы он самостоятельно выяснял, как реагировать. Меж тем, Сьюзен Андерсон, профессор философии в Университете Коннектикута, работает вместе со своим мужем Майклом Андерсоном, преподавателем компьютерной техники Хартфордского университета, над созданием роботов, которые смогут обеспечивать этичный уход за пожилыми людьми. Подход Андерсонов в значительно большей степени базируется на самообучении, однако вместо обучения посредством взаимодействия с широкой публикой машины общаются только со специалистами по этике. Сьюзен Андерсон говорит, что на их работу повлияли философы Джон Роулз и В.Д. Росс. В то время как работы Роулза по «рефлективному равновесию» гласят, что моральные принципы могут быть извлечены из этических решений, принятых в определенных ситуациях, Росс доказывает , что у людей есть несколько первостепенных моральных императивов. Мы обязаны следовать каждому из этих императивов, однако ни один из них не является абсолютным и не перевешивает другие автоматически. Поэтому в ситуации, когда между ними возникают противоречия, они должны быть сбалансированы и подвергнуты сравнению. Андерсоны изучают самообучаемых роботов, чтобы выработать принципы для системы медицинского ухода за пожилыми людьми. В одном из случаев они создали интеллектуальную систему по выработке этичного курса действий в ситуации, когда пациент отказывается от прописанного врачом лечения. Следует ли медицинскому работнику пытаться убедить пациента согласиться на лечение или нет? Это подразумевает множество сложных этических обязанностей, включая уважение к самостоятельности пациента, возможный вред и возможную пользу для него. Андерсон выяснила, что как только робот обучается моральной реакции на 4 специфических сценария, он приобретает способность делать обобщения и принимать соответствующее ситуации решение в оставшихся 14-и случаях. Из этого она смогла вывести этический принцип: «Вы должны попытаться убедить пациента либо в том, что он, вероятнее всего, пострадает, если не согласится следовать рекомендованному курсу лечения, либо потеряет значительную выгоду. Не просто небольшую выгоду, но значительную, если не примет предписания врача». Несмотря на то, что на этом раннем этапе работы в коде робота были прописаны простые моральные обязательства - такие, как, к примеру, важность предотвращения ущерба - с тех пор Андерсоны занимались работой, которая не содержит морального аспекта. Вместо этого интеллектуальная система обучилась даже этим моральным принципам в ходе общения со специалистами по этике. Следует ли нам доверять роботам в вопросах морали? К тому же, люди склонны совершать ошибки и их решения в вопросах справедливости не являются истиной в конечной инстанции. Вместе с тем маловероятно, что роботы смогут справляться с принятием сложнейших моральных решений в ближайшем будущем. И, конечно, пока мы еще озадачены некоторыми вопросами в сфере моральных ценностей, было бы неразумно передавать полномочия в этой сфере роботам. Как отмечает Аркин, Андерсон и другие профессора, с которыми я разговаривал, солидарны в том, что механизмы не должны быть задействованы в областях, подразумевающих моральные противоречия. А Лин добавляет, что сомневается в том, этично ли это - возлагать тяжелый труд принятия моральных решений на технику. Механизм улучшения морали Уоллак отмечает, что в своей книге «Моральные машины: учим роботов отличать хорошее от плохого» он выдвинул идею: тот же принцип, согласно которому компьютеры продвигали философское понимание разума, применим к роботам и к изучению этики. Одним из примеров подобного подхода служит проводимая семейством Андерсон работа по созданию принципа, основанного на разработанной ими интеллектуальной системе медицинского обслуживания. Андерсон подчеркивает, что история развития морали свидетельствует о постепенной выработке консенсуса - и что разработка моральных принципов для роботов может способствовать усовершенствованию моральной аргументации. Согласно Уоллаку, нравственные принципы роботов отражают такие элементы нравственного принятия решений, как, к примеру, моральные эмоции или знание социальных норм. «Поскольку мы говорили о том, могут или не могут роботы рассуждать, используя категории морали, этот дискурс подтолкнул нас к идее взглянуть на присущие людям способности, воспринимаемые нами как нечто само собой разумеющееся, и на то, какую роль они могут играть в процессе принятия этических решений», - объяснил он. Как говорит Лин, существует вероятность, что окажется просто невозможно свести практикуемый людьми процесс принятия этических решений к числовым значениям - к примеру, непонятно, как закодировать сострадание или милосердие. Однако он отмечает, что моральные принципы роботов могут рассматриваться как проблема этики человеческой. «Размышления о том, как роботы должны вести себя, представляют собой предполагающее самоанализ упражнение в том, как следует вести себя людям», - говорит он. «Это открывает нам возможность лучше узнать самих себя.» Комментарии: |
|