Европарламент запутался в правах ИИ – если признать робота личностью, можно ли его «отключать»? |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-01-15 17:02 Европарламент запутался в правах ИИ – если признать робота личностью, можно ли его «отключать»? Сегодня автоматика выполняет нашу работу, завтра нейросеть станет верным советчиком, а затем искусственный интеллект встанет бок о бок с человеком – во всех сферах жизни. Чтобы это сосуществование не зашло в опасный тупик, потребуется юридическая база, свод законов для роботов, в котором они будут представлены не как «машины», но «самостоятельные личности». Чтобы могли нести ответственность за дела свои, например. Речь идет не о фундаментальных «трех законах робототехники Азимова», а о приземленных вещах. В докладе для Комиссии по правовым вопросам Европарламента выделен такой момент. Чтобы стать автономным, роботу нужно «научиться», а это означает неизбежные ошибки в процессе, которые приводят к ущербу. Кто обязан его компенсировать – производитель-учитель или владелец-эксплуататор? Ведь сам робот официально еще «несмышленыш» и взять с него нечего. Корпорации, которые сегодня официально берут на работу интеллектуальные системы, готовы придать им часть прав юридического лица – для удобства ведения бизнеса. А что насчет прав личности? Концепция разработки ИИ подразумевает наличие «выключателя смерти», безусловного механизма деактивации системы. Но в Google DeepMind считают, что выгоднее прибегнуть к селективной амнезии: робот сотрет память о своих поступках и мотивации, но останется «жить». Чиновники, с присущей им дотошностью, уже начали выяснять – кто должен иметь право на убийство или экзекуцию ИИ? Сам владелец робота, на которого и возляжет вся ответственность, по аналогии с контролем над домашним питомцем? Или кнопку, как аналог летального оружия, можно вручить только полицейскому? А то и вовсе выдавать доступ к ней исключительно по решению суда или аналогичной правовой структуры. Слишком много «серых зон» и сложных вопросов. Европарламент собирается сделать первые выводы и, возможно, проголосовать за новые законы для роботов в феврале 2017 г. Комментарии: |
|