Этические принципы искусственного интеллекта в версии Пентагона

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2020-03-02 00:29

Философия ИИ

Завеса тайны пока не сброшена

Министерство обороны США официально утвердило этические принципы использования искусственного интеллекта (ИИ), сообщается на официальном сайте Пентагона.

В комментарии к этому сообщению министр обороны США Марк Эспер заявил: «Соединенные Штаты вместе со своими союзниками и партнерами должны в скором времени начать пользоваться искусственным интеллектом, чтобы побеждать на полях сражений и защищать международный порядок… Принятие этических принципов искусственного интеллекта повысит приверженность министерства обороны соблюдению самых высоких этических стандартов, изложенных в Стратегии искусственного интеллекта…»

Пентагон вводит пять основных принципов: искусственный интеллект должен быть «ответственным», «соразмерным», «понятным», «надёжным» и «управляемым». Подчеркивается, что в основу этих этических принципов легли этические нормы Вооружённых сил США, опирающиеся на Конституцию США, главу 10 Кодекса США, закон о войне, международные договоры, а также нормы ведения боевых действий.

Эти пять принципов относятся к использованию на полях сражений боевых роботов (автономных систем вооружений). Боевым роботом считается аппарат, который самостоятельно принимает решение на поиск цели и открытие огня по ней. В американском экспертном сообществе уже несколько лет дискутируют о допустимости столь высокой степени самостоятельности автономных систем вооружений. Ряд экспертов склоняются к тому, что решение на открытие огня должен принимать человек, то есть оператор, управляющий боевым роботом. И принятые этические принципы ИИ означают, что ИИ боевого робота должен строго и надёжно контролироваться оператором, чтобы исключить случайное открытие огня по объекту равного противника (Россия и Китай), способного нанести сокрушающий ответный удар.

Применение искусственного интеллекта требуется также, чтобы добиться максимальной автоматизации сбора и анализа данных и создания всеохватывающего цифрового ТВД в так называемом мультидоменном пространстве. Сферами (доменами) войны в США официально признаны не только традиционные боевые действия, но и противоборства в сфере дипломатии, информационные и финансово-экономические войны, технологическое противоборство и промышленный шпионаж, а также разжигание гражданских конфликтов в стране-мишени путём поддержки оппозиции.

Организации социальных протестов как самой дешёвой формы противоборства в странах-мишенях Пентагон уделяет особое внимание. Ведущую роль в мониторинге и организации социальных протестов во всём мире играет американский Национальный центр биотехнологической информации (National Center for Biotechnology Information), расположенный в г. Бетесда, штат Мэриленд и координирующий работу нескольких групп учёных в рамках пентагоновского проекта EMBERS («Тлеющие угли»).

Проект EMBERS родился в результате конкурса, организованного в 2012 году Джейсоном Мэтэни, функционером IARPA, подразделения Управления директора Национальной разведки США. Трём командам – из Политехнического института штата Вирджиния Virginia Tech, фирмы по квантовым вычислениям Raytheon BBN Technologies в Кембридже (штат Массачусетс) и Hughes Research Laboratories (Малибу, штат Калифорния) – было предложено построить модель прогнозирования социальных протестов. Победил проект «Тлеющие угли», предложенный командой учёных из Virginia Tech.

Команда из Вирджинии создала лучшего кентавра – симбиоз коллективного интеллекта людей и программных алгоритмов. Главным разработчиком этих алгоритмов была Гизем Коркмаз, профессор Университета Вирджинии и главный исследователь схожего пентагоновского проекта Minerva. Она разработала сетевые и статистические модели, работающие с такими источниками, как социальные сети, твиттер, новости, блоги, даже браузер Tor (система прокси-серверов, позволяющая устанавливать анонимное сетевое соединение, защищённое от прослушивания) «для прогнозирования социальных протестов, забастовок и результатов выборов в целевых странах Латинской Америки».

Гизем Коркмаз утверждает: «Гражданские беспорядки (акции протеста, забастовки и «захваты») варьируются от небольших ненасильственных акций протеста, направленных на решение конкретных проблем, до событий, которые превращаются в массовые беспорядки. Обнаружение и прогнозирование этих событий представляет ключевой интерес для социологов и политиков, поскольку они могут привести к значительным социальным и культурным изменениям».

Это официальная версия тех задач, которые поставлены Пентагоном перед разработчиками и участниками проектов Minerva и EMBERS. В реальности оба эти проекта нацелены на разжигание социальных протестов, которые в 2019 году, заметим, охватили десятки стран мира. И оба проекта являются развитием военной программы The Human Terrain System (HTS), к которой были привлечены антропологи, социологи, политологи, лингвисты, разрабатывавшие схемы управления менталитетом населения Ирака и Афганистана во время вторжения туда армии США.

С момента запуска в 2007 году программы HTS она не раз подвергалась резкой критике антропологов и журналистов. 31 октября 2007 года Исполнительный совет Американской антропологической ассоциации (ААА) опубликовал заявление против HTS как «недопустимого применения антропологической экспертизы», противоречащее Кодексу этики ААА. В 2014 году американские антропологи добились прекращения программы промывания мозгов жителям Ирака и Афганистана.

В проектах Minerva и EMBERS учёные не присутствуют на театре военных действий. Да и военных действий не ведётся. В круглосуточном режиме мощные компьютеры мониторят миллионы источников в странах-мишенях, производят отсев малозначащих фактов и событий согласно заложенным алгоритмам. Затем эта информация поступает к профильным экспертам, специалистам по междисциплинарным исследованиям. В их задачу входит установка весовых коэффициентов тех или иных событий, то есть определение степени их важности. Методом последовательных приближений (итераций) коллективный кентавр (люди и алгоритмы) определяет так называемые параметры порядка – небольшое число кризисогенных факторов, способных, если их «подогреть», разжечь «тлеющие угли» протестов, дать толчок «цветной революции» в той или иной стране. Именно эта методика лежала в основе запуска в странах Ближнего Востока «арабской весны».

Искусственный интеллект играет при этом роль инструмента сортировки сотен тысяч источников-агентов; происходит так называемое многоагентное моделирование. Наиболее уязвимые места страны-мишени определяют профильные эксперты, которые выступают корректировщиками «информационного огня», подобно тому, как это делается в артиллерии. Корректируют они активность многочисленных НПО, оппозиционных политиков, инсайдеров в правящих кругах.

Алгоритмы сортировки агентов оптимизируются при участии профильных аналитиков корпорации MITRE в процессе сверки произведенных командой Virginia Tech прогнозов с реальными событиями. Корпорация MITRE, как мы уже писали, является оперативным штабом Пентагона по организации социальных протестов и гражданских беспорядков в разных странах мира.

Моделирование социальных процессов на основе алгоритмов многоагентного подхода широко применяется во всём мире, в том числе в России, но только Пентагон использует искусственный интеллект для подрывных действий.  

Проекты EMBERS и Minerva органично входят в такие стратегические разработки Пентагона, как «Принуждающая мощь» (Coercive Power). И вся эта подрывная деятельность замаскирована под научно-исследовательскую работу. Завеса тайны с неё пока не сброшена.


Источник: www.fondsk.ru

Комментарии: