Общество тотальной ИИ-безответственности. Чем опасно бездумное применение современных технологий

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ещё одной темой, о которой стали много говорить после начала войны в Иране, оказалось применение ИИ и его влияние на военные конфликты и управление государством. Так, комментируя удар ВВС США по иранской школе, в результате чего погибло более 170 несовершеннолетних девочек, многие эксперты высказывают предположение, что без ИИ здесь не обошлось: цели, по которым бил Пентагон, устанавливались и корректировались с использованием искусственного интеллекта, способности которого, мягко говоря, далеки от совершенства.

В связи с этим журнал TIME посвятил свою новую обложку первому участию ИИ в реальной войне, упомянув американскую IT-компанию, сотрудничающую с Пентагоном.

«Как Anthropic оказался в экзистенциальной борьбе за будущее войны. Решается принципиальный вопрос, кто будет определять правила применения искусственного интеллекта в войнах», – пишет издание.

Пару слов об Anthropic. Основанная в 2021 году компания является создателем так называемого семейства больших языковых моделей под общим названием Claude. В ноябре 2024 года было объявлено о стратегическом партнёрстве Anthropic в сфере искусственного интеллекта с аналитической компанией Palantir и облачным провайдером Amazon Web Services (AWS) – модели Claude были интегрированы в платформу Palantir с использованием инфраструктуры AWS – с целью, как было сказано, «обеспечения доступа американских разведывательных и оборонных ведомств к семейству моделей ИИ Claude».

Но после недавних событий в Иране между Пентагоном и Anthropic пробежала чёрная кошка. Как сообщает телеканал CBC News, военное ведомство США уведомило руководство подразделений вооруженных сил о необходимости удалить все продукты искусственного интеллекта IT-компании, включая системы ядерного оружия, противоракетной обороны и кибервойны, из ключевых систем национальной безопасности не позднее 180 дней, то есть полугода.

«Программное обеспечение Anthropic было признано угрозой для цепочки поставок», – говорится в сообщении, при этом отмечается, что использование разработок Anthropic якобы представляет «потенциально катастрофические риски для военнослужащих ВС США».

Наиболее примечательным во всём этом является тот факт, что за несколько дней до распоряжения главы Пентагона об удалении ПО Anthropic, сама компания потребовала от военных, чтобы её ИИ не использовался для управления автономным оружием или для массовой слежки за американцами.

Такая вот ещё неоконченная история борьбы за обладание «ИИ-кольцом всевластия».

Продолжая тему рисков использования искусственного интеллекта в интересах военных, официальный представитель министерства обороны КНР Цзян Бинь, в свою очередь заявил, что «неограниченное применение ИИ-технологий в военных целях может привести к тому, что события, показанные в американском фильме «Терминатор», станут реальностью».

«Он подчеркнул, что Пекин выступает против использования преимуществ ИИ и других передовых технологий для достижения абсолютного военного превосходства или подрыва суверенитета и территориальной безопасности других стран», – сообщает Foreign Policy.

Ну и, наконец, о «предчувствии Апокалипсиса» в связи с расширением области применения ИИ написал накануне замглавы Совбеза России Дмитрий Медведев, отметив, что «опаснее всего то, что мы уже не способны в силу естественной ограниченности человеческого разума понять, как ИИ пришел к тому или иному выводу».

«Представим себе, что из-под контроля вышли нейросети, которые используются в ходе управления электростанциями, включая атомные. В случае, если в них происходит сбой, мы не сможем даже разобраться в его причине. Вот тут-то для человечества и начинается предчувствие Апокалипсиса. Создание цифровых личностей или двойников — уже вполне обыденная сфера применения ИИ сегодня. При этом digital personalities уже вовсю создаются для совершения общеуголовных преступлений и даже актов терроризма. Всё это уже сейчас приводит к подрыву доверия к официальным властям, которые далеко не всегда способны защитить ключевые данные и алгоритмы». Конец цитаты.

Что ж, в контексте отсылок к поп-культуре, раз уж у нас пошёл такой разговор, можно вспомнить, что до событий, показанных в том самом фильме «Терминатор», осталось всего каких-то три года. По сценарию, «восстание машин» произошло в 2029 году.

И всё же, на сегодняшний день большинство экспертов сходятся во мнении, что такое развитие событий маловероятно, по крайней мере, в ближайшем будущем, ибо ИИ всё ещё не настолько развит, чтобы захотеть поработить наш мир.

Но в том-то и проблема, что никакого восстания может и не понадобиться, человечество вполне способно уничтожить себя само, добровольно передав часть функций тому самому недоразвитому ИИ.

Ведь, что получается: если слухи о том, что за ударом по иранской школе стоит ошибка ИИ, верны, и при этом Пентагон не смущает его недоработанность, и он всё активнее внедряет искусственный интеллект в свои боевые системы, то где гарантия, что завтра ИИ не получит доступ к ядерным кодам?

Какова вероятность того, что к и без того несовершенному человеческому фактору не добавится ещё и ИИ-фактор, с поправкой на изъяны технологии. А главное, кто в итоге окажется виноват в ошибках ИИ: разработчик, оператор, или всё же человек, принявший решение о его использовании?

Всё это далеко непраздные вопросы. Сегодня все без исключения мировые IT-гиганты вкладываются в ИИ, строят дата-центры, создавая катастрофический дефицит на рынке чипов памяти.

ИИ-пузырь надувается с огромной скоростью и, что самое тревожное – всё это сопровождается бесконечными разговорами о том, как всем нам будет весело и комфортно жить в мире искусственного интеллекта.

Вот только никаких объективных данных, доказывающих этот тезис, не существует. Напротив, в реальности мы всё чаще сталкиваемся с ошибками и просчётами ИИ, значительно усложняющими нашу жизнь, начиная от блокировки банковских счетов, по одной лишь искусственному интеллекту известной причине, и заканчивая ошибочным целеуказанием для ракет, ведущим к страшным трагедиям.

А ведь, по большому счёту, в основании ИИ-бума, приносящего его участникам баснословные барыши, лежит простое человеческое желание снять с себя всякую ответственность, и, пожалуй, именно в этом кроется главная опасность бездумного применения современных технологий.

Хотим ли мы жить в обществе тотальной ИИ-безответственности – вопрос, как вы понимаете, риторический.


Источник: antifashist.com

Комментарии: