the first law |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-06-22 18:06 Инженер создал машину, способную нарушить 1-й закон робототехники Инженер Александр Ребен из Калифорнийского университета в Беркли продемонстрировал робота, который способен самостоятельно решить, наносить вред человеку или нет. В данном случае вся возможная угроза людям заключается в уколе иглой, если палец оказывается в пределах досягаемости механической руки. Автор проекта отметил, что он не создавал робота, смысл существования которого заключается в нанесении вреда людям. Машина может атаковать человека, а может и не атаковать: механизм принимает решение самостоятельно, и даже его разработчик не может предсказать, как тот поведет себя в той или иной ситуации. По мнению Александра Ребена, это показывает, что когда-нибудь искусственный интеллект сможет нарушить сформулированный фантастом Айзеком Азимовым первый закон робототехники: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Инженер отметил, что таким образом он рассчитывает привлечь внимание к возможной угрозе человечеству со стороны искусственного интеллекта. По его словам, позволяющие остановить «восстание машин» методы нужно разработать намного раньше, чем подобные машины появятся. Решением этой проблемы может стать так называемая красная кнопка, способная отключить искусственный интеллект. Источник: vk.com Комментарии: |
|