Роботов-убийц хотят лишить интеллекта

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Вскоре в Женеве пройдет конференция, где будут обсуждаться механизмы контроля над боевыми роботами с искусственным интеллектом. Предлагается запретить автономные системы, которые сами выбирают цель и уничтожают ее без приказа человека. Эти технологии показали свою эффективность в военных конфликтах, поэтому они привлекательны для криминала и террористов. Какую реальную угрозу несут боевые роботы?

В Женеве с 13 по 17 декабря под эгидой ООН пройдет шестая конференция по рассмотрению действия Конвенции об обычных вооружениях. Это мероприятие называют важным этапом международных переговоров по смертоносным автономным системам вооружений (САС) или, проще говоря, боевым роботам с искусственным интеллектом (ИИ). С каждым годом тема становится все злободневнее. Уже сейчас на полях сражений применяются дроны с автономным управлением и возможностями убивать без участия человека-оператора.

В преддверии женевской встречи некоммерческая организация The Future of Life Institute (FLI) выпустила короткометражное видео об угрозе взбунтовавшегося искусственного интеллекта. За несколько дней видео набрало сотни тысяч просмотров. Авторы ролика дают четкий посыл о том, что разработанные военными роботы в конечном итоге могут оказаться в руках террористов и преступников. Ролик сделан в виде репортажей с улиц, на которых хозяйничают дроны. Видео пестрит яркими заголовками о вымышленных инцидентах, связанных с выходом новых технологий вооружений из-под контроля.

Авторы ролика предупреждают, что использование ИИ против людей – уже реальность. В одном из фрагментов из припаркованной машины дрон ведет огонь по избирателям на участке для голосования. Похожее оружие использовалось израильскими спецслужбами при ликвидации в прошлом году иранского ученого-ядерщика Мохсена Фахризаде. Затем показано ограбление банка четвероногими роботами с винтовками. Причем по внешнему виду они напоминают роботов-собак компании Boston Dynamics.

В FLI уверены, что против подобного кошмара есть только один метод: это предложенный Международным комитетом Красного Креста (МККК) мировой юридически обязывающий запрет на автономное оружие с искусственным интеллектом. Речь не идет о системах, управляемых дистанционно. Запретить предлагается только комплекты, которые сами находят цель и сами принимают решение о ее уничтожении без какого-либо одорения со стороны человека. Первая сессия группы правительственных экспертов ООН открытого состава Конвенции о негуманном оружии по САС проходила в Женеве в ноябре 2017 года. А неформальные дискуссии по этому вопросу ведутся с 2013 года. Но результатов до сих пор нет. Главная проблема заключается в том, что подобные разработки ведут многие страны и обязать их все отказаться от перспективного вида оружия - практически невозможно. 

По экспертным оценкам, против запрета настроены прежде всего США, Россия, Китай, Индия, Великобритания и многие другие страны. Они считают существующие международные нормы достаточными. При этом многие террористические и криминальные группировки уже широко используют вооруженные дроны. Это мексиканские наркокартели, боевики «Исламского государства*» (запрещенная в России организация) и повстанцы-хуситы в Йемене.

Доцент кафедры политологии и социологии РЭУ им. Плеханова, член экспертного совета «Офицеров России» Александр Перенджиев считает, что появление интеллектуальных военных систем на черном рынке представляет огромную угрозу всему человечеству. «Когда мы говорим об очень эффективном и секретном оружии, есть опасность его применения не по назначению из-за нелегального рынка военной техники. Именно этот рынок является частью мировой теневой экономики. Появление там  «роботов-убийц» представляет не меньшую угрозу, чем риски попадания ядерного оружия в руки террористов. Между двумя этими угрозами можно ставить знак равенства»,

– считает Перенджиев.

По его словам, конфликты в разных точках мира разжигаются для поддержки инфраструктуры криминальной экономики. Так было во время военных операций США в Ираке, Ливии, Сирии, Афганистане и многих других местах. А предстоящая конференция в Женеве, предупредил эксперт, может превратиться в рекламу боевого искусственного интеллекта. Он убежден, что необходимо создать международную систему противодействия утечке современных военных разработок, сформировать единый мировой антитеррористический фронт. «Такие мероприятия желательно проводить без широкой огласки. А пока получается, что подобные обсуждения показывают привлекательность этого оружия для криминальных структур», – говорит Перенджиев.

По его мнению, принятие одной только конвенции по смертоносным автономным системам вооружений не даст результата, если не появится институтов, ответственных за ее реализацию. Эксперт подчеркивает, что страны должны уже сейчас формировать собственные структуры по противодействию проникновения инновационной военной техники на криминальные рынки оружия. «Без этих структур мы не объединимся на мировом уровне. Даже если будет создана какая-то международная организация, она все равно должна опираться на национальные структуры», – убежден Александр Перенджиев.

Глава Центра социального проектирования «Платформа» Алексей Фирсов считает, что в обозримом будущем «система искусственного интеллекта не может поставить себе задачу нападения на человечество, потому что у нее нет такого мотива». 

«Робот сам по себе не может стать убийцей.  Есть две причины, чтобы он начал убивать. Первая – в его программном обеспечении должны произойти какие-то сбои, и он начнет вести себя непредсказуемым образом, что может привести к гибели людей.  А поэтому беспилотные автомобили представляют не меньший риск для жизни человека, чем боевые системы. Вторая причина перехода роботов на сторону зла – их использование криминальными, теневыми группировками», – пояснил эксперт.

С ним согласен и председатель Московского межрегионального профсоюза полиции и Росгвардии Михаил Пашкин. Он полагает, что даже если убийство или теракт будут совершены боевым роботом, то наличие мотива для совершения этого преступления позволит выйти на его организаторов и исполнителей. Он убежден, что в распоряжении государства все равно будут более совершенные технологии, нежели у нарушителей закона. «Это палка о двух концах, государство отслеживает появление у преступников новых технологий. В будущем преступления будут совершаться в основном в интеллектуальной сфере, а физическое насилие отслеживается довольно быстро», – говорит Пашкин.

Даже если убийство будет совершено дроном, то «с помощью технологий можно отследить, кто им управлял или его программировал». «Задачу дрону ставит человек, а не искусственный интеллект. В любом случае, будут искать, кому выгодно и в итоге заказчика найдут. Технологии совершенствуются и с той, и с другой стороны – так было всегда», – напомнил собеседник.

Фирсов убежден, что на данный момент человечество пока полностью контролирует робототехнику и ИИ, но делать это становится все сложнее: «Искусственный интеллект сейчас не является риском. Но мы видим, как растет хрупкость этих систем и их автономность. Цифровых платформ становится очень много и возникают проблемы стыковок между ними. На этих стыках могут происходить сбои и возникать совершенно непредсказуемые явления».

Крое того, добавил собеседник, технологии становятся более доступными и формируются серьезные нелегальные интернет-сообщества, которые противопоставляют себя закону. «Поэтому появляется угроза вторжения в эти системы с целью перепрограммировать их и использовать против людей. Такие риски слабо прогнозируемы и слабо управляемы. Это может быть ключевой проблемой», – предупредил Фирсов.

* Организация (организации) ликвидированы или их деятельность запрещена в РФ

Комментарии: