Искусственный интеллект ограничили в правах: роботам запретили убивать людей |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-12-16 17:20 Европарламент требует ограничить полномочия боевых роботов на международном уровне Разработки в области создания систем искусственного интеллекта неизбежно привели к тому, что разработчики начинают внедрять «умные» системы в оружие и военную технику. К примеру, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и распознавать цели, а также выполнять роль ведомых для пилотируемых летательных аппаратов. И это только начало: в будущих военных разработках искусственный интеллект будет иметь всё большее значение. Внедрение систем искусственного интеллекта в вооружение и военную технику при этом вызывает множество вопросов этического и правового характера: к примеру, применение в вооружённых конфликтах автономных систем вооружения является довольно спорным моментом. По оценке Комитета по юридическим вопросам Европарламента, автономные системы вооружения можно использовать в вооруженных конфликтах лишь в том случае, если решение об открытии огня принимает человек. «Автономные боевые системы следует использовать в качестве крайней меры, и этот шаг можно признать законным, только если ими управляет человек, поскольку именно человек должен делать выбор между жизнью и смертью», — говорится в докладе. Человек всегда должен иметь возможность внести корректировки в действия автономных боевых систем, остановить их работу или вовсе деактивировать такие системы в случае непредвиденных обстоятельств, уверяют специалисты. При этом должны соблюдаться условия, при которых можно будет точно идентифицировать человека, управлявшего автономными боевыми системами. Это необходимо, например, на случай поиска виновных в незаконном применении оружия. За действия искусственного интеллекта на поле боя должен отвечать человек, а при разработке «умного» оружия необходимо предпринять все возможные шаги для минимизации сбоев и неполадок. Источник: www.popmech.ru Комментарии: |
|