Создана новая этическая концепция для роботов

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ученые из Университета Хартфордшира в Великобритании разработали концепцию «Расширение возможностей» (Empowerment), чтобы помочь роботам и людям работать и жить бок о бок безопасно и эффективно, пишет EurekAlert

Группа ученых из британского Университета Хартфордшира уже несколько лет работает над этической концепцией для роботов. Первый ее вариант вышел в 2005 году, но к настоящему моменту исследователи существенно доработали концепцию, которую они назвали «Расширение возможностей». По сути это облеченные в форму программного кода три закона робототехники знаменитого писателя-фантаста Айзека Азимова. Они были сформулированы еще в 1942 году и гласят, что 1) робот не может навредить человеку или позволить человеку пострадать, 2) роботы должны подчиняться приказам людей и 3) защищать свое существование, если это не наносит вреда человеку.

Проблема в том, что понятие «вреда» крайне противоречиво. Сам Азимов в своих произведениях постоянно ставил роботов перед таким выбором, когда стремление подчиняться и не навредить человеку приводило к катастрофическим последствиям. В нашей реальности вскоре может возникнуть, например, такая дилемма. Как запрограммировать беспилотный автомобиль так, чтобы он делал адекватный выбор между сохранением себя и людей в салоне от повреждений и безопасностью пешеходов или людей в других автомобилях? Чьи жизни ему спасать: своих хозяев и пассажиров или ребенка, выбежавшего на дорогу?

Британские исследователи попытались ответить на эти непростые вопросы, предоставив роботам большую свободу выбора. Их концепция, облеченная в форму математической модели, не напрягает машины сложными этическими вопросами. Вместо этого в алгоритм закладывается несколько вариантов дальнейших действий.

Основным условием остается ненанесение вреда человеку. Поэтому простейший бытовой робот в случае возникновения нештатной ситуации просто отправится на станцию подзарядки, отказавшись от каких-либо активных действий. Более сложные роботизированные механизмы, по замыслу авторов концепции, должны обращаться за решением этической проблемы к своих хозяевам-людям. Предполагается записать в алгоритм искусственного интеллекта закон о том, что высшим приоритетом является не сохранение жизни и здоровья человека любой ценой, а защита его права на выбор. «Мы не хотим, чтобы роботы были подчинены непреложному закону безопасности людей, нам хочется жить в мире, где роботы охраняют наше право на выбор», — объясняет Кристоф Солдж, один из авторов этической модели для роботов.

Концепция первого в мире закона о робототехнике была разработана в России. Согласно ей, роботы не могут быть самостоятельными субъектами права, каковыми являются только люди. Права и обязанности искусственного интеллекта будут схожи с теми, какими обладают юридические лица и животные.

Комментарии: