RAND; ИИ и геополитика |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-11-13 15:29 Как ИИ может повлиять на взлет и падение наций? Государства по всему миру могут увидеть рост или падение своей власти в зависимости от того, как они используют и управляют развитием искусственного интеллекта (ИИ). Независимо от того, представляет ли ИИ экзистенциальный риск для человечества, правительствам необходимо будет разработать новую нормативную базу для выявления, оценки и реагирования на разнообразные будущие проблемы, связанные с ИИ. С появлением передовых форм ИИ для общественности в начале 2023 года дебаты по государственной политике справедливо сосредоточились на таких событиях, как обострение неравенства, потеря рабочих мест и потенциальная угроза вымирания человечества, если ИИ продолжит развиваться без эффективных барьеров. . Меньше дискуссий было о том, как ИИ может повлиять на геополитику и кто может возглавить будущую разработку ИИ или других передовых алгоритмов ИИ. Поскольку ИИ продолжает развиваться, геополитика, возможно, никогда не будет прежней. Людям, организованным в национальные государства, придется работать с другим набором действующих лиц — машинами с искусственным интеллектом — с эквивалентным или более высоким интеллектом и, потенциально, с весьма разрушительными способностями. В эпоху геотехнополитики человеческая идентичность и человеческое восприятие нашей роли в мире будут совершенно другими; монументальные научные открытия будут происходить способами, которые люди, возможно, не смогут постичь. Следовательно, путь развития ИИ, который в конечном итоге развернется, будет иметь огромное значение для формы и контуров будущего мира. Мы очерчиваем несколько сценариев, которые иллюстрируют, как развитие ИИ может развиваться в ближайшем будущем, в зависимости от того, кто контролирует ситуацию. Мы провели обсуждения с ведущими технологами, политиками и учеными из многих секторов, чтобы подготовить наши выводы и рекомендации. Мы представили этим экспертам сценарии в качестве основы для исследования, размышления и критики. Мы стремились охарактеризовать текущую траекторию развития ИИ и определить наиболее важные факторы, определяющие эволюцию этой беспрецедентной технологии. Кто мог бы контролировать развитие ИИ? Американские компании лидируют
Президент США Джо Байден виртуально появляется на встрече с лидерами бизнеса и профсоюзов по поводу Закона о чипах и науке, который направлен на стимулирование внутреннего производства чипов и полупроводников в США. Фото Джонатана Эрнста/Reuters Правительство США продолжает позволять частным корпорациям разрабатывать ИИ, не регулируя эту технологию и не вмешиваясь таким образом, чтобы изменить поведение этих корпораций. Этот подход соответствует давнему убеждению в Соединенных Штатах, что свободный рынок (и его стимулы, ориентированные на получение прибыли) является наиболее эффективным механизмом для быстрого развития таких технологий, как ИИ. [1] В этом мире правительственные служащие США продолжают отставать от инженеров технологического сектора США как в понимании ИИ, так и в их способности использовать его мощь. Частные корпорации направляют почти все финансирование исследований и разработок на улучшение ИИ, и подавляющее большинство технических талантов США продолжают стекаться в Силиконовую долину. Правительство США стремится достичь своих политических целей, полагаясь на инноваторов страны в разработке новых изобретений, которые оно в конечном итоге сможет приобрести. В этом мире будущие отношения между правительством США и технологическим сектором во многом напоминают нынешние: компании занимаются агрессивным сбором данных о потребителях, а социальные сети продолжают оставаться рассадником дезинформации и разногласий. Захват правительства США
Ведущие технологические лидеры США, в том числе главный исполнительный директор (генеральный директор) Tesla Илон Маск, генеральный директор Meta Platforms Марк Цукерберг, генеральный директор Alphabet Сундар Пичаи, генеральный директор OpenAI Сэм Альтман, генеральный директор Nvidia Дженсен Хуанг, генеральный директор Microsoft Сатья Наделла, генеральный директор IBM Арвинд Кришна и бывший Microsoft Генеральный директор Билл Гейтс займет свои места на открытии двухпартийного форума AI Insight Forum в сентябре 2023 года. Фото Лии Миллис/Reuters Развитие искусственного интеллекта происходит быстрыми темпами, и опасения по поводу катастрофических последствий вынуждают правительство США – потенциально в координации с союзниками-единомышленниками – взять под контроль разработку искусственного интеллекта. Соединенные Штаты предпочитают отказаться от своего традиционного легкомысленного подхода к регулированию информационных технологий и разработки программного обеспечения и вместо этого приступают к широкомасштабному регулированию и надзору. Это приводит к монополии правительства США и избранных партнеров (например, Соединенного Королевства) на вычислительные ресурсы ИИ, центры обработки данных, передовые алгоритмы и таланты посредством национализации и комплексного регулирования. Подобно прошлым инициативам правительства США, таким как программа «Аполлон» и Манхэттенский проект, ИИ разрабатывается под эгидой правительства, а не под эгидой частных компаний. В оборонном секторе это может привести к динамике гонки вооружений, поскольку другие правительства инициируют собственные программы разработки ИИ, опасаясь, что они останутся позади в эпоху, основанную на ИИ. Среди инструментов власти такая национализация может также изменить баланс имущих и неимущих, поскольку другие страны, которые не успевают за переходным периодом, видят, что их экономики страдают из-за отсутствия способности развивать ИИ и внедрять его в свою рабочую силу. Китайский сюрприз
Знак Baidu на Всемирной конференции по искусственному интеллекту 2023 года в Шанхае, Китай. Фото Али Сонг/Reuters Подобно моменту со спутником, три китайские организации — Huawei, Baidu и Пекинская академия искусственного интеллекта (BAAI) — объявляют о крупном прорыве в области искусственного интеллекта, застигая мир врасплох. В этом мире прогресс ИИ в Китае изначально игнорируется и постоянно преуменьшается политиками из развитых, демократических стран. Китайские компании, научно-исследовательские институты и ключевые правительственные лаборатории опережают иностранных конкурентов, отчасти благодаря их улучшенной способности поглощать огромные объемы государственного финансирования. Современные модели искусственного интеллекта также неуклонно развиваются, используя конкурентное преимущество данных огромного населения страны. Наконец, военно-гражданское слияние Китая позволяет крупным игрокам в промышленности, научных кругах и правительстве совместно использовать ресурсы в рамках общей инфраструктуры искусственного интеллекта. BAAI извлекает выгоду из стратегического партнерства с лидерами отрасли и доступа к значительным вычислительным ресурсам, таким как Pengcheng Cloudbrain-II лаборатории Пэнчэн. Такое сочетание мирового опыта и огромной вычислительной мощности позволяет Китаю масштабировать исследования в области ИИ с беспрецедентной скоростью, что приводит к прорывам в преобразующих исследованиях в области ИИ, которые застают мир врасплох. Это приводит к серьезной обеспокоенности политических и военных лидеров США тем, что новые возможности искусственного интеллекта Китая обеспечат ему асимметричное военное преимущество над Соединенными Штатами. Государственно-частный консорциум великой державы
Премьер-министр Канады Джастин Трюдо, премьер-министр Японии Фумио Кисида, президент США Джо Байден, канцлер Германии Олаф Шольц, президент Индонезии Джоко Видодо, премьер-министр Италии Джорджия Мелони, генеральный директор Citigroup Джейн Фрейзер и президент Европейской комиссии Урсула совещаются во время встречи Большой семерки 2023 года. саммит в Хиросиме, Япония. Фото Джонатана Эрнста/Reuters Во всем мире прочные партнерские отношения между правительством, мировой промышленностью, организациями гражданского общества, научными кругами и исследовательскими институтами способствуют быстрой разработке и внедрению ИИ. Эти партнерства образуют консорциум, который осуществляет сотрудничество в проектах с участием многих заинтересованных сторон, которые получают доступ к крупномасштабным вычислительным данным, а также к ресурсам обучения, вычислений и хранения. Благодаря финансированию со стороны многих правительств консорциум разрабатывает совместные решения и усилия по сравнительному анализу для оценки, проверки и подтверждения надежности, надежности и устойчивости систем искусственного интеллекта. Новые и существующие международные правительственные органы, в том числе Совет по искусственному интеллекту Абу-Даби, полагаются на разнообразное участие и вклад в установление стандартов ответственного использования искусственного интеллекта. Результатом является здоровый сектор искусственного интеллекта, который поддерживает экономический рост, происходящий одновременно с разработкой и оценкой справедливых, безопасных и надежных систем искусственного интеллекта. Чему мы научились? Страны и компании будут конфликтовать по-новому, и ИИ может стать действующим лицом, а не просто фактором. Страны и корпорации уже давно конкурируют за власть. Крупные технологические компании бросают вызов правительствам многими старыми способами, одновременно добавляя к этому новые подходы. Подобно традиционным транснациональным корпорациям, такие компании выходят за рамки национальных границ; однако крупные технологические компании также влияют на местные сообщества гораздо более всеобъемлющим и агрессивным образом, поскольку они затрагивают жизнь потребителей и собирают данные об их местонахождении, деятельности и привычках. Крупные технологические компании также по-новому влияют на национальную экономику, внутреннюю политику и местную политику, поскольку они влияют на распространение информации (и дезинформации) и создают новые сообщества и субкультуры. Это способствовало поляризации населения в некоторых странах и смене режима в других. Компании, занимающиеся искусственным интеллектом, имеют доступ к огромным инвестиционным фондам и огромным вычислительным мощностям, что дает им дополнительные преимущества. Хотя технологии часто влияют на геополитику, перспектива ИИ означает, что сама технология может стать геополитическим игроком. Мотивы и цели ИИ могут существенно отличаться от мотивов и целей правительств и частных компаний. Неспособность людей понять, как «думает» ИИ, и наше ограниченное понимание эффектов второго и третьего порядка наших команд или запросов ИИ также вызывают большую тревогу. У людей достаточно проблем во взаимодействии друг с другом. Еще неизвестно, как мы будем управлять нашими отношениями с одним или несколькими ИИ. Мы вступаем в эпоху просвещения и хаоса. Безграничная природа ИИ затрудняет его контроль и регулирование. По мере увеличения вычислительной мощности, оптимизации моделей и развития платформ с открытым исходным кодом возможность создавать высокоэффективные приложения искусственного интеллекта будет становиться все более размытой. В таком мире исследователи и инженеры с благими намерениями будут использовать эту силу, чтобы творить чудеса, люди со злыми намерениями будут использовать ее, чтобы творить ужасные вещи, а ИИ сможет творить как чудесные, так и ужасные вещи. Конечным результатом является не безупречная эра просвещения и не абсолютная катастрофа, а смесь того и другого. Человечество научится справляться с этой революционной технологией и жить с ней, как мы это делали со многими другими преобразующими технологиями в прошлом. США и Китай будут лидировать по-разному Хотя американские политики часто беспокоятся о том, что Китай возьмет на себя инициативу в гонке за искусственный интеллект, эксперты, с которыми мы консультировались, пришли к единому мнению, что Китай вряд ли добьется нового крупного прогресса в области искусственного интеллекта из-за превосходства США в расширении возможностей инноваций в частном секторе. Китай вряд ли догонит или превзойдет Соединенные Штаты в создании прорывных решений в области искусственного интеллекта, но он может лидировать в различных областях. Продемонстрированный Китаем опыт совершенствования технологических возможностей, производимых в других странах, и предпочтительный подход Коммунистической партии Китая к сценариям общественного использования означают, что Китай может добиться большего успеха, интегрируя сегодняшние технологии в свои рабочие процессы, оружие и системы, тогда как Соединенные Штаты могут отстать в конечном итоге. -конечная системная интеграция. Технологические инновации будут и дальше опережать традиционное регулирование Правительство США уже считается отстающим в понимании ИИ по сравнению с ведущими частными разработчиками. Это связано с несколькими факторами: относительной медлительностью разработки государственной политики по сравнению с быстрыми темпами развития технологий, неспособностью правительства платить конкурентоспособные зарплаты дефицитным специалистам, а также отсутствием ясности относительно того, следует ли и как вообще регулировать ИИ, среди прочего. . Заглядывая в будущее, эта динамика вряд ли изменится. Правительства будут продолжать догонять частный сектор, чтобы понять и отреагировать на новейшие и наиболее эффективные разработки в области искусственного интеллекта. Быстрый темп и распространение передовых технологий искусственного интеллекта затруднит многостороннее регулирование. У ИИ нет узких мест традиционных моделей нераспространения, таких как глобальный режим нераспространения ядерного оружия, а это означает, что правительствам будет сравнительно сложно контролировать ИИ, используя традиционные методы регулирования. Что должны сделать правительственные политики, чтобы защитить человечество? Потенциальные опасности, исходящие от ИИ, многочисленны. В крайнем случае, они включают в себя угрозу вымирания человечества, которая может возникнуть в результате катастрофы с использованием искусственного интеллекта, такой как хорошо продуманный вирус, который легко распространяется, уклоняется от обнаружения и уничтожает нашу цивилизацию. Менее страшной, но значительно тревожной является угроза демократическому управлению, если ИИ получат власть над людьми. [2] Даже если ИИ не убивает людей и не свергает демократию, авторитарные режимы, террористические группы и организованные преступные группировки могут использовать ИИ, чтобы причинить большой вред, распространяя дезинформацию и манипулируя общественным мнением. Правительствам необходимо рассматривать среду ИИ как нормативную тренировочную площадку для подготовки к угрозам, исходящим от еще более продвинутых возможностей ИИ, включая потенциальное появление общего искусственного интеллекта. Правительствам следует сосредоточиться на повышении устойчивости к угрозам ИИ Помимо более традиционных методов регулирования, государственная политика в отношении ИИ должна быть сосредоточена на стратегиях устойчивости для смягчения потенциальных угроз ИИ, поскольку стратегии, направленные исключительно на отрицание, не будут работать. ИИ невозможно сдержать посредством регулирования, поэтому лучшая политика будет направлена на минимизацию вреда, который может нанести ИИ. Это, вероятно, будет наиболее важным для биобезопасности, [3] но снижение вреда также включает в себя противодействие угрозам кибербезопасности, укрепление демократической устойчивости и разработку вариантов экстренного реагирования на широкий спектр угроз со стороны государственных, суб- и негосударственных субъектов. Правительствам придется либо принять совершенно новые возможности для реализации этой политики, либо расширить существующие агентства, такие как Агентство по кибербезопасности и безопасности инфраструктуры. Правительствам следует применять более комплексный подход к регулированию, выходящий за рамки контроля за оборудованием, которого будет недостаточно для смягчения вреда в долгосрочной перспективе. Правительствам следует выйти за рамки традиционных методов регулирования, чтобы влиять на разработки в области ИИ. В отличие от других потенциально опасных технологий, ИИ не имеет очевидных ресурсов, которые можно было бы регулировать и контролировать. Данные и вычислительная мощность широко доступны большим и малым компаниям, и ни одна организация не может достоверно предсказать, откуда может возникнуть следующее революционное достижение ИИ. Следовательно, правительствам следует рассмотреть возможность расширения своего инструментария за пределы традиционных методов регулирования. Два творческих механизма могут заключаться в том, чтобы правительства инвестировали в создание надежных, находящихся в государственной собственности наборов данных для исследований ИИ или выдавали гранты, которые поощряют социально полезное использование ИИ. Новые методы могут также включать создание единых правил ответственности, чтобы уточнить, когда разработчики будут нести ответственность за ущерб, связанный с ИИ, требования к тому, как следует оценивать ИИ, и контроль возможности распространения определенных высокоэффективных моделей. В конечном итоге правительства могли бы купить место за столом переговоров, предоставив компаниям экономические стимулы в обмен на большее влияние в обеспечении использования ИИ на благо всех. Правительства должны продолжать поддерживать инновации Превосходство США в области искусственного интеллекта во многом является результатом их превосходства в инновациях. Чтобы сохранить это лидерство, правительству США следует продолжать поддерживать инновации, финансируя национальные ресурсы искусственного интеллекта. Хотя разработку искусственного интеллекта на переднем крае возглавляют компании частного сектора, обладающие огромными вычислительными ресурсами, среди экспертов существует убеждение, что следующий прорыв в области искусственного интеллекта может произойти за счет меньших моделей с новой архитектурой. [4] Академические учреждения стали инициаторами многих теоретических разработок, которые сделали возможным существование существующего поколения ИИ. Стимулирование академического сообщества скромными ресурсами могло бы развить это наследие и привести к значительным улучшениям ИИ. Правительствам следует сотрудничать с частным сектором для улучшения оценки рисков В свете вероятного очень широкого распространения передовых возможностей искусственного интеллекта среди субъектов частного и государственного секторов и лиц с хорошими ресурсами, правительствам следует тесно сотрудничать с ведущими организациями частного сектора для разработки передовых инструментов прогнозирования, военных игр и стратегических планов борьбы с Эксперты ожидают, что произойдет широкий спектр неожиданных катастроф с использованием ИИ. Примечания [1] Тай Мин Чунг и Томас Г. Манкен, Решающее десятилетие: конкуренция между США и Китаем в области оборонных инноваций и оборонной промышленной политики в 2020-е годы и в последующий период , Центр стратегических и бюджетных оценок, 22 мая 2023 г. [2] Йошуа Бенджио, «ИИ и катастрофический риск», Journal of Democracy , Vol. 34, № 4, октябрь 2023 г. [3] Кристофер Мутон, Калеб Лукас и Элла Гест, Операционные риски искусственного интеллекта при крупномасштабных биологических атаках: подход красной команды , RAND Corporation, RR-A2977-1, 2023. [4] Уилл Найт, «Генеральный директор OpenAI говорит, что эпоха гигантских моделей искусственного интеллекта уже закончилась», Wired , 17 апреля 2023 г. Источник: www.rand.org Комментарии: |
|