Следующий страх перед искусственным интеллектом: голливудские роботы-убийцы становятся инструментами военных

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Представители национальной безопасности США предупреждают о возможности того, что новая технология может привести к войне, киберконфликту и — в самом крайнем случае — к применению ядерного оружия.

Когда в октябре президент Байден объявил о резких ограничениях на продажу Китаю самых передовых компьютерных чипов, он продал их отчасти для того, чтобы дать американской промышленности шанс восстановить свою конкурентоспособность.

Но у Пентагона и Совета национальной безопасности была вторая повестка дня: контроль над вооружениями.

Согласно теории, если китайские военные не смогут получить чипы, это может замедлить их усилия по разработке оружия, управляемого искусственным интеллектом. Это дало бы Белому дому и всему миру время выработать некоторые правила использования искусственного интеллекта в датчиках, ракетах и кибероружии и, в конечном счете, защититься от некоторых кошмаров, порожденных Голливудом, — автономных роботов-убийц и компьютеров, которые блокируют своих создателей-людей.

Теперь, из-за тумана страха, окружающего популярного чат-бота ChatGPT и другое программное обеспечение для искусственного интеллекта, ограничение поставок чипов в Пекин выглядит всего лишь временным решением. Когда в четверг мистер Байден зашел в Белый дом на встречу руководителей технологических компаний, которые борются с ограничением рисков, связанных с технологией, его первым комментарием было: “То, что вы делаете, имеет огромный потенциал и огромную опасность”.

По словам его помощников по национальной безопасности, это было отражением недавних секретных брифингов о потенциале новой технологии для предотвращения войн, киберконфликтов и — в самом крайнем случае — принятия решений о применении ядерного оружия.

Но даже когда г-н Байден выступил со своим предупреждением, представители Пентагона, выступая на технологических форумах, заявили, что, по их мнению, идея шестимесячной паузы в разработке следующих поколений ChatGPT и подобного программного обеспечения была плохой идеей: китайцы ждать не будут, как и русские.

“Если мы остановимся, угадайте, кто не остановится: потенциальные противники за рубежом”, - заявил в среду директор по информации Пентагона Джон Шерман. “Мы должны продолжать двигаться”.

Его резкое заявление подчеркнуло напряженность, ощущаемую сегодня во всем оборонном сообществе. Никто на самом деле не знает, на что способны эти новые технологии, когда дело доходит до разработки оружия и контроля над ним, и они понятия не имеют, какой режим контроля над вооружениями, если таковой вообще существует, может сработать.

Предчувствие смутное, но глубоко тревожное. Может ли ChatGPT расширить возможности плохих игроков, у которых раньше не было бы легкого доступа к деструктивным технологиям? Может ли это ускорить конфронтацию между сверхдержавами, оставляя мало времени для дипломатии и переговоров?

“Сейчас в отрасли проходит ряд неофициальных бесед — все неформальные — о том, как будут выглядеть правила безопасности искусственного интеллекта”, - сказал Эрик Шмидт, бывший глава Google, который занимал пост председателя Совета по оборонным инновациям.Кредит...

“Индустрия здесь не глупа, и вы уже видите попытки саморегулирования”, - сказал Эрик Шмидт, бывший председатель Google, который занимал пост первого председателя консультативного совета по инновациям в области обороны с 2016 по 2020 год.

“Итак, сейчас в отрасли проходит ряд неофициальных бесед — все неформальные — о том, как должны выглядеть правила безопасности искусственного интеллекта”, - сказал г-н Шмидт, который совместно с бывшим госсекретарем Генри Киссинджером написал серию статей и книг о потенциале искусственного интеллекта. чтобы перевернуть геополитику.

Предварительные усилия по внедрению ограждений в систему понятны любому, кто тестировал начальные версии ChatGPT. Боты не будут отвечать на вопросы о том, например, как нанести вред кому-либо с помощью смеси наркотиков, или как взорвать плотину или вывести из строя ядерные центрифуги - все операции, которые Соединенные Штаты и другие страны проводили без использования инструментов искусственного интеллекта.

Но эти черные списки действий только замедлят злоупотребление этими системами; мало кто думает, что они могут полностью остановить такие усилия. Всегда есть способ обойти ограничения безопасности, и это может подтвердить любой, кто пытался отключить срочные звуковые сигналы в системе предупреждения о пристегнутом ремне безопасности автомобиля.

Хотя новое программное обеспечение популяризировало эту проблему, вряд ли она является новой для Пентагона. Первые правила разработки автономного оружия были опубликованы десять лет назад. Объединенный центр искусственного интеллекта Пентагона был создан пять лет назад для изучения использования искусственного интеллекта в боевых условиях.

Некоторые виды оружия уже работают на автопилоте. Ракеты Patriot, которые сбивают ракеты или самолеты, вторгающиеся в защищенное воздушное пространство, уже давно имеют “автоматический” режим. Это позволяет им вести огонь без вмешательства человека, когда они перегружены приближающимися целями быстрее, чем человек может среагировать. Но предполагается, что они находятся под присмотром людей, которые при необходимости могут прервать атаки.

Ракеты Patriot, которые сбивают ракеты или самолеты, вторгающиеся в защищенное воздушное пространство, уже давно имеют “автоматический” режим. Но предполагается, что они находятся под присмотром людей, которые при необходимости могут прервать атаки.

Убийство Мохсена Фахризаде, ведущего иранского ученого-ядерщика, было осуществлено израильским "Моссадом" с использованием автономного пулемета, которому помогал искусственный интеллект, хотя, по-видимому, существовала высокая степень дистанционного управления. Недавно Россия заявила, что начала производство — но еще не развернула — своей подводной ядерной торпеды "Посейдон". Если это оружие оправдает российскую шумиху, оно сможет автономно пересекать океан, обходя существующие системы противоракетной обороны, чтобы доставить ядерное оружие через несколько дней после его запуска.

До сих пор не существует договоров или международных соглашений, которые касались бы такого автономного оружия. В эпоху, когда соглашения о контроле над вооружениями отменяются быстрее, чем ведутся переговоры, перспектив у такого соглашения мало. Но проблемы, с которыми сталкивается ChatGPT и подобные ему, отличаются и в некотором смысле более сложны.

В вооруженных силах системы, оснащенные искусственным интеллектом, могут ускорить принятие решений на поле боя до такой степени, что они создают совершенно новые риски случайных ударов или решений, принимаемых на основе вводящих в заблуждение или заведомо ложных предупреждений о приближающихся атаках.

“Основная проблема искусственного интеллекта в вооруженных силах и в сфере национальной безопасности заключается в том, как вы защищаетесь от атак, которые происходят быстрее, чем принятие решений человеком, и я думаю, что этот вопрос остается нерешенным”, - сказал г-н Шмидт. “Другими словами, ракета приближается так быстро, что должен быть автоматический ответ. Что произойдет, если это ложный сигнал?”

Холодная война изобиловала историями о ложных предупреждениях — однажды из-за того, что учебная лента, предназначавшаяся для отработки ядерного реагирования, была каким-то образом введена в неправильную систему и вызвала оповещение о готовящемся массированном советском нападении. (Здравый смысл привел к тому, что все отказались.) Пол Шарре из Центра новой американской безопасности отметил в своей книге 2018 года “Армия ничейная”, что с 1962 по 2002 год произошло “по меньшей мере 13 ядерных инцидентов, связанных с близким применением”, что “подтверждает мнение о том, что инциденты, связанные с близким применением, являются нормальными, хотя и ужасающими условиями применения ядерного оружия"..”

По этой причине, когда напряженность между сверхдержавами была намного ниже, чем сегодня, ряд президентов пытались договориться о выделении большего времени на принятие ядерных решений всеми сторонами, чтобы никто не спешил вступать в конфликт. Но генеративный ИИ угрожает подтолкнуть страны в другом направлении, к более быстрому принятию решений.

Хорошей новостью является то, что крупные державы, скорее всего, будут осторожны — потому что они знают, как будет выглядеть реакция противника. Но пока нет согласованных правил.

Аня Мануэль, бывший сотрудник Госдепартамента, а ныне руководитель консалтинговой группы "Райс, Хэдли, Гейтс и Мануэль", недавно написала, что даже если Китай и Россия не готовы к переговорам об ИИ в области контроля над вооружениями, встречи на эту тему приведут к обсуждению того, какое использование ИИ рассматривается как ”за гранью дозволенного".

Конечно, Пентагон также будет беспокоиться о том, чтобы согласиться на многие ограничения.

“Я очень упорно боролся за то, чтобы выработать политику, согласно которой, если у вас есть автономные элементы оружия, вам нужен способ их отключения”, - сказал Дэнни Хиллис, специалист по информатике, который был пионером в области параллельных компьютеров, которые использовались для искусственного интеллекта. Мистер Хиллис, который также входил в Совет по оборонным инновациям, сказал, что чиновники Пентагона пошли на попятную, заявив: “Если мы можем отключить их, враг тоже может отключить их”.

Больший риск может исходить от отдельных участников, террористов, групп программ—вымогателей или небольших стран с развитыми кибернетическими навыками — таких как Северная Корея, - которые узнают, как клонировать меньшую по размеру и менее ограниченную версию ChatGPT. И они могут обнаружить, что программное обеспечение generative A.I. идеально подходит для ускорения кибератак и нацеливания на дезинформацию.

Том Берт, который руководит операциями по обеспечению доверия и безопасности в Microsoft, которая ускоряет внедрение новой технологии для обновления своих поисковых систем, сказал на недавнем форуме в Университете Джорджа Вашингтона, что, по его мнению, системы искусственного интеллекта помогут защитникам обнаруживать аномальное поведение быстрее, чем злоумышленникам. Другие эксперты с этим не согласны. Но он сказал, что опасается, что искусственный интеллект может “усилить” распространение целенаправленной дезинформации.

Все это предвещает новую эру контроля над вооружениями.

Некоторые эксперты говорят, что, поскольку остановить распространение ChatGPT и подобного программного обеспечения было бы невозможно, лучшая надежда - ограничить количество специализированных чипов и других вычислительных мощностей, необходимых для продвижения технологии. Это, несомненно, будет одним из многих различных планов по контролю над вооружениями, выдвинутых в ближайшие несколько лет, в то время, когда крупнейшие ядерные державы, по крайней мере, кажутся незаинтересованными в переговорах по поводу старого оружия, не говоря уже о новом.


Источник: www.nytimes.com

Комментарии: