Искусственный интеллект ограничили в правах: роботам запретили убивать людей

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Европарламент требует ограничить полномочия боевых роботов на международном уровне

Разработки в области создания систем искусственного интеллекта неизбежно привели к тому, что разработчики начинают внедрять «умные» системы в оружие и военную технику. К примеру, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и распознавать цели, а также выполнять роль ведомых для пилотируемых летательных аппаратов. И это только начало: в будущих военных разработках искусственный интеллект будет иметь всё большее значение.

Внедрение систем искусственного интеллекта в вооружение и военную технику при этом вызывает множество вопросов этического и правового характера: к примеру, применение в вооружённых конфликтах автономных систем вооружения является довольно спорным моментом. По оценке Комитета по юридическим вопросам Европарламента, автономные системы вооружения можно использовать в вооруженных конфликтах лишь в том случае, если решение об открытии огня принимает человек.

«Автономные боевые системы следует использовать в качестве крайней меры, и этот шаг можно признать законным, только если ими управляет человек, поскольку именно человек должен делать выбор между жизнью и смертью», — говорится в докладе. Человек всегда должен иметь возможность внести корректировки в действия автономных боевых систем, остановить их работу или вовсе деактивировать такие системы в случае непредвиденных обстоятельств, уверяют специалисты.

При этом должны соблюдаться условия, при которых можно будет точно идентифицировать человека, управлявшего автономными боевыми системами. Это необходимо, например, на случай поиска виновных в незаконном применении оружия. За действия искусственного интеллекта на поле боя должен отвечать человек, а при разработке «умного» оружия необходимо предпринять все возможные шаги для минимизации сбоев и неполадок.


Источник: www.popmech.ru

Комментарии: