Создана новая этическая концепция для роботов |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-07-19 17:42 Ученые из Университета Хартфордшира в Великобритании разработали концепцию «Расширение возможностей» (Empowerment), чтобы помочь роботам и людям работать и жить бок о бок безопасно и эффективно, пишет EurekAlert Группа ученых из британского Университета Хартфордшира уже несколько лет работает над этической концепцией для роботов. Первый ее вариант вышел в 2005 году, но к настоящему моменту исследователи существенно доработали концепцию, которую они назвали «Расширение возможностей». По сути это облеченные в форму программного кода три закона робототехники знаменитого писателя-фантаста Айзека Азимова. Они были сформулированы еще в 1942 году и гласят, что 1) робот не может навредить человеку или позволить человеку пострадать, 2) роботы должны подчиняться приказам людей и 3) защищать свое существование, если это не наносит вреда человеку. Проблема в том, что понятие «вреда» крайне противоречиво. Сам Азимов в своих произведениях постоянно ставил роботов перед таким выбором, когда стремление подчиняться и не навредить человеку приводило к катастрофическим последствиям. В нашей реальности вскоре может возникнуть, например, такая дилемма. Как запрограммировать беспилотный автомобиль так, чтобы он делал адекватный выбор между сохранением себя и людей в салоне от повреждений и безопасностью пешеходов или людей в других автомобилях? Чьи жизни ему спасать: своих хозяев и пассажиров или ребенка, выбежавшего на дорогу? Британские исследователи попытались ответить на эти непростые вопросы, предоставив роботам большую свободу выбора. Их концепция, облеченная в форму математической модели, не напрягает машины сложными этическими вопросами. Вместо этого в алгоритм закладывается несколько вариантов дальнейших действий. Основным условием остается ненанесение вреда человеку. Поэтому простейший бытовой робот в случае возникновения нештатной ситуации просто отправится на станцию подзарядки, отказавшись от каких-либо активных действий. Более сложные роботизированные механизмы, по замыслу авторов концепции, должны обращаться за решением этической проблемы к своих хозяевам-людям. Предполагается записать в алгоритм искусственного интеллекта закон о том, что высшим приоритетом является не сохранение жизни и здоровья человека любой ценой, а защита его права на выбор. «Мы не хотим, чтобы роботы были подчинены непреложному закону безопасности людей, нам хочется жить в мире, где роботы охраняют наше право на выбор», — объясняет Кристоф Солдж, один из авторов этической модели для роботов. Концепция первого в мире закона о робототехнике была разработана в России. Согласно ей, роботы не могут быть самостоятельными субъектами права, каковыми являются только люди. Права и обязанности искусственного интеллекта будут схожи с теми, какими обладают юридические лица и животные. Комментарии: |
|