the first law

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Инженер создал машину, способную нарушить 1-й закон робототехники

Инженер Александр Ребен из Калифорнийского университета в Беркли продемонстрировал робота, который способен самостоятельно решить, наносить вред человеку или нет. В данном случае вся возможная угроза людям заключается в уколе иглой, если палец оказывается в пределах досягаемости механической руки.

Автор проекта отметил, что он не создавал робота, смысл существования которого заключается в нанесении вреда людям. Машина может атаковать человека, а может и не атаковать: механизм принимает решение самостоятельно, и даже его разработчик не может предсказать, как тот поведет себя в той или иной ситуации. По мнению Александра Ребена, это показывает, что когда-нибудь искусственный интеллект сможет нарушить сформулированный фантастом Айзеком Азимовым первый закон робототехники: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Инженер отметил, что таким образом он рассчитывает привлечь внимание к возможной угрозе человечеству со стороны искусственного интеллекта. По его словам, позволяющие остановить «восстание машин» методы нужно разработать намного раньше, чем подобные машины появятся. Решением этой проблемы может стать так называемая красная кнопка, способная отключить искусственный

интеллект.


Источник: vk.com

Комментарии: