Время для запрета роботов-терминаторов уже пришло |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-10-07 22:57 Крейсеры ВМС США оснащены системой боевого управления «Иджис», предназначенной для отслеживания и уничтожения противокорабельных ракет и самолетов. Израиль разработал беспилотник-камикадзе «Гарпия», который обнаруживает и автоматически уничтожает радиолокационные излучатели. Границу между Южной и Северной Кореей охраняют сторожевые роботы-убийцы. Все они функционируют автономно - без человеческого вмешательства. Первые версии роботов-терминаторов уже стали реальностью. Однако до сих пор не существует никаких глобальных соглашений, ограничивающих их применение. Они используют свой искусственный интеллект для определения цели и принятия решения атаковать за доли секунды. Технологии все еще несовершенны, но они становятся все более точными - и смертельными. Осталось совсем немного времени, когда, благодаря революции в классификации и распознавании изображений, эти системы превысят возможности среднего солдата. Но действительно ли мы готовы к этому? Хотим ли мы, чтобы Робокопы охраняли наши города? Последствия этого, в конце концов, могут быть очень похожими на сценарии мрачных фантастических фильмов. В настоящее время военные заявляют, что они хотят, чтобы только люди принимали решения в вопросах жизни и смерти, и все автоматические системы попадают под эту категорию - они оснащены дистанционным управлением. Но что произойдет, если все страны, без исключения, начнут развивать свои автономные технологии убийства? Конечно, можно утешить себя тем, что роботы смогли бы лучше исполнять самые простые законы войны и при этом соблюдать основные правила, такие как «не стрелять в женщин и детей». Но следующим на повестке дня станет вопрос о субординации. Кто будет нести ответственность в случае, если что-то пойдет не так? Если система вооружения имеет проблемы в конструкции и технологии, то ответственность лежит на изготовителе. Если система была использована без согласования, то за это ответит весь командирский состав. Ответственность будет такой же сложной задачей, как и при применении обычного оружия. Но есть куда более важный вопрос: «Если решение отнять человеческую жизнь будет принято машиной?» Таким образом, автоматические системы вооружения будут уничтожать человеческое достоинство. Машина может принять любое решение, но никогда не будет учитывать последствий своих действий. Люди могут запрограммировать ее или показать ей примеры, чтобы вывести формулу для принятия этих решений, но эти решения будет принимать не человек. Даже если решение будет принято с учетом соблюдения писаных законов войны, то даже в этом случае машина будет не в состоянии учесть бесчисленное множество тонкостей. Кроме того, нужно учитывать, что при неуклонном внедрении военных технологий в гражданскую жизнь, эти военные системы могут быть развернуты в обычных городах. Преимущество искусственных систем состоит в том, что они не испытывают таких разрушительных эмоций, как гнев. Но они не имеют и положительных эмоций, таких как сочувствие и сострадание. Единственный способ избежать недопустимых ситуаций - это создание и соблюдение международного запрета на летальные автоматические системы вооружений и достичь этого в одностороннем порядке невозможно. Прецеденты такого рода запретов уже существуют. Общество выступило против химического и лазерного оружия. К сожалению, не запрещенным осталось ядерное оружие, хотя его использование может нарушить многие международные законы, ограничивающие жертвы среди гражданского населения, и грозит длительными последствиями. Основным фактором, сдерживающим его использование, является страх перед неизбежностью массированного возмездия. Существует надежда на то, что правительства всех стран мира приложат все усилия для подписания многостороннего договора, который позволит устранить соблазн создания армии роботов-убийц. Робототехника и искусственный интеллект имею громадный потенциал для помощи обществу - от поиска выживших во время стихийных бедствий до поиска данных для новых методов лечения рака. И только от нас будет зависеть, будем ли мы использовать свой потенциал, чтобы построить мир и улучшить нашу жизнь или погрязнуть в бесконечной войне и обесценить человеческую жизнь. Источник: news.rambler.ru Комментарии: |
|