Европарламент запутался в правах ИИ – если признать робота личностью, можно ли его «отключать»?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Европарламент запутался в правах ИИ – если признать робота личностью, можно ли его «отключать»?

Сегодня автоматика выполняет нашу работу, завтра нейросеть станет верным советчиком, а затем искусственный интеллект встанет бок о бок с человеком – во всех сферах жизни. Чтобы это сосуществование не зашло в опасный тупик, потребуется юридическая база, свод законов для роботов, в котором они будут представлены не как «машины», но «самостоятельные личности». Чтобы могли нести ответственность за дела свои, например.

Речь идет не о фундаментальных «трех законах робототехники Азимова», а о приземленных вещах. В докладе для Комиссии по правовым вопросам Европарламента выделен такой момент. Чтобы стать автономным, роботу нужно «научиться», а это означает неизбежные ошибки в процессе, которые приводят к ущербу. Кто обязан его компенсировать – производитель-учитель или владелец-эксплуататор? Ведь сам робот официально еще «несмышленыш» и взять с него нечего.

Корпорации, которые сегодня официально берут на работу интеллектуальные системы, готовы придать им часть прав юридического лица – для удобства ведения бизнеса. А что насчет прав личности? Концепция разработки ИИ подразумевает наличие «выключателя смерти», безусловного механизма деактивации системы. Но в Google DeepMind считают, что выгоднее прибегнуть к селективной амнезии: робот сотрет память о своих поступках и мотивации, но останется «жить».

Чиновники, с присущей им дотошностью, уже начали выяснять – кто должен иметь право на убийство или экзекуцию ИИ? Сам владелец робота, на которого и возляжет вся ответственность, по аналогии с контролем над домашним питомцем? Или кнопку, как аналог летального оружия, можно вручить только полицейскому? А то и вовсе выдавать доступ к ней исключительно по решению суда или аналогичной правовой структуры. Слишком много «серых зон» и сложных вопросов.

Европарламент собирается сделать первые выводы и, возможно, проголосовать за новые законы для роботов в феврале 2017 г.

Комментарии: