ОРУЖИЕ ДЬЯВОЛА В РУКАХ ПЕНТАГОНА |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-17 01:50 Полный разбор системы Maven от Palantir "Силиконовый убийца": Как Пентагон поссорился с Кремниевой долиной из-за права убивать · Контекст: Пентагон впервые в истории сделал ИИ ключевым инструментом планирования боевых действий в ходе операции против Ирана . · Главный конфликт: Разработчик ИИ Anthropic отказался снимать запрет на использование своей модели Claude в полностью автономном оружии и для массовой слежки. Власти США признали компанию "угрозой национальной безопасности" и разорвали контракты . · Почему это важно: Мы стоим на пороге эры, где алгоритмы будут принимать решения о жизни и смерти быстрее человека. Но кто ответит, если "цифровой штабист" ошибется? Часть 1. Вступление: Конец эпохи "Шок и трепет" Когда 20 марта 2003 года коалиция во главе с США начала бомбардировку Багдада, эта операция получила название "Шок и трепет". Она ознаменовала собой вершину военного искусства индустриальной эпохи: тысячи самолетовылетов, десятки тысяч тонн бомб, колоссальная логистика и планирование, которое занимало недели. Прошло чуть более 20 лет. В конце февраля 2026 года Соединенные Штаты и Израиль начали масштабную кампанию против Ирана. По темпам нанесения ударов она почти вдвое превзошла "Шок и трепет". Но главная революция произошла не в небе над Тегераном, а в серверных комнатах Пентагона и аналитических центрах Центрального командования (CENTCOM). Впервые в истории ключевым инструментом боевого планирования стал не генерал и не аналитик с лупой над аэрофотоснимком, а искусственный интеллект. Конфликт вокруг его использования привел к самому громкому противостоянию Кремниевой долины и военно-промышленного комплекса США. И этот конфликт обнажил пугающую правду: будущее, в котором машины решают, кому жить, а кому умереть, уже наступило. Оно просто распределено неравномерно. Часть 2. Анатомия системы: Maven как "мозг" армии В центре этой технологической революции находится платформа Maven Smart System, разработанная компанией Palantir Technologies . Если вы смотрели сериал про спецслужбы и думали, что тотальная слежка и анализ данных — это фантастика, то Maven — это её воплощение. Как это работает технически? 1. Сбор данных (Сенсоры): Система агрегирует информацию из более чем 150 источников. Это спутники-шпионы (включая данные Национального управления геопространственной разведки), наземные радары, самолеты дальнего радиолокационного обнаружения (AWACS), дроны (включая MQ-9 Reaper), системы радиотехнической разведки, перехваты коммуникаций, банковские транзакции и даже данные с дорожных камер наблюдения . 2. Обработка (ИИ): Весь этот поток данных ("информационный цунами", с которым человек не справится физически) скармливается нейросети. Алгоритмы машинного обучения автоматически выделяют на изображениях объекты, классифицируя их: "танк", "пусковая установка", "склад боеприпасов", "военнослужащий", "гражданское лицо" (с разной степенью вероятности). Программа не просто находит цели, но и ранжирует их по приоритетности . 3. Анализ и планирование (Ядро Claude): До недавнего времени центральным аналитическим "движком" системы была большая языковая модель Claude от компании Anthropic . Оператор может общаться с системой на естественном языке через чат-интерфейс: "Покажи активность врага в квадрате 7 за последние три часа", "Определи тип подразделения по этой технике", "Сгенерируй три варианта удара по этому комплексу с оценкой вероятных потерь и сопутствующего ущерба". ИИ в реальном времени обрабатывает запросы, анализирует спутниковые снимки и данные с дронов, просчитывает маршруты и риски. 4. Поражение (OODA-петля): Весь этот цикл — от обнаружения до выдачи целеуказания ударным системам — занимает секунды. Аналитик лишь подтверждает решение, и карточка цели с координатами уходит на реализацию: будь то авиация, дальнобойная артиллерия, тактическая группа или беспилотник . По сути, Пентагон смог сжать знаменитую петлю OODA (наблюдение-ориентирование-решение-действие) до такой степени, что человек из ключевого звена превратился в "контролера", который просто ставит галочку. Но именно эта "галочка" стала яблоком раздора. Часть 3. Восстание создателей: Почему Anthropic сказала "нет" Пентагону Компания Anthropic всегда позиционировала себя как "этичный" ответ OpenAI. Основанная выходцами из OpenAI, она сделала безопасность и ответственность своим главным козырем. И это чуть не привело к краху национальной безопасности США (по версии Пентагона). Хронология конфликта: · Осень 2024 — Лето 2025: Anthropic первой среди ИИ-компаний получает допуск к работе в засекреченных сетях Министерства обороны (уровень IL-6 — высший уровень доступа для коммерческого ПО) . Claude в партнерстве с Palantir начинает использоваться для анализа разведданных. Пентагон подписывает контракты на сотни миллионов долларов с Anthropic, OpenAI, Google и xAI . · Январь 2026: Операция по захвату экс-президента Венесуэлы Николаса Мадуро. Спецназ США использует Claude через платформу Palantir . · Точка невозврата: Сотрудники Anthropic узнают об этом из СМИ и приходят в ужас. Они обращаются к Palantir и Пентагону с "глубокой озабоченностью". По их мнению, это нарушает политику компании, запрещающую использование ИИ в сценариях, связанных с насилием, слежкой и автономными системами. · Ультиматум (Февраль 2026): Реакция Пентагона была молниеносной и жесткой. Министр обороны Пит Хегсет (назначенный Трампом) ставит ультиматум: до 27 февраля Anthropic должна снять все ограничения на использование Claude для "любых законных целей" (read: военных). Аргумент: риски недостаточной скорости внедрения ИИ перевешивают риски несовершенного соответствия законодательству . · Ответ Амодеи (26 февраля): Генеральный директор Anthropic Дарио Амодеи публикует заявление-манифест. Он заявляет, что компания не может "с чистой совестью" выполнить требования Пентагона . Он выделяет две красные линии: 1. Массовая слежка за гражданами США внутри страны. 2. Создание полностью автономных систем вооружения, которые смогут выбирать и поражать цели без участия человека. Амодеи подчеркивает, что современные ИИ недостаточно надежны и безопасны для подобных сценариев, а необходимых механизмов контроля и законов просто не существует . · Месть Цезаря: Президент США Дональд Трамп приходит в ярость. Он называет Anthropic "радикально левой компанией", которая пытается диктовать Пентагону, как защищать страну. Издается указ: признать Anthropic "угрозой цепочке поставок" и запретить всем федеральным ведомствам использовать ее технологии в течение полугода . Заместитель министра обороны публично называет Амодеи "лжецом»". Ситуация абсурда: единственная компания, чей ИИ имел допуск к самым секретным данным и реально работал на войну, была изгнана с позором за попытку сохранить контроль над своей технологией. При этом, по иронии судьбы, даже после запрета, CENTCOM продолжал использовать Claude в ходе иранской кампании . Часть 4. Солдаты удачи: OpenAI и xAI приходят на помощь Пока Anthropic боролась с совестью, конкуренты не дремали. Вакуум нужно было заполнять немедленно, ведь война с Ираном уже началась. Сделка с дьяволом (или с Пентагоном): 27 февраля 2026 года, буквально через несколько часов после указа Трампа, глава OpenAI Сэм Альтман объявляет о соглашении с Пентагоном . Модели OpenAI будут развернуты в закрытых военных сетях. Но тут есть важный нюанс, который показывает всю сложность переговоров. Альтман заявляет, что Пентагон согласился с принципами OpenAI: · Запрет на массовую слежку внутри страны. · Ответственность человека за применение силы автономными системами . То есть OpenAI формально добилась тех же гарантий, за которые Anthropic объявили "угрозой"! В чем же разница? Эксперты полагают, что дело в доверии и тоне. Anthropic публично скандалила и обвиняла Пентагон в намерении нарушать закон. OpenAI же вела переговоры тихо и "с глубоким уважением к безопасности", как выразился Альтман . Кроме того, xAI Илона Маска, тесно связанного с Трампом, также получила допуск к секретным сетям с чат-ботом Grok, безоговорочно согласившись на все условия . Реакция рынка и пользователей: История получила неожиданное продолжение. Пользователи интернета, которые часто придерживаются либертарианских или левых взглядов, устроили бойкот OpenAI. · Количество удалений приложения ChatGPT выросло на 200% . · Приложение Claude от Anthropic, наоборот, взлетело на первое место в App Store. Количество его скачиваний выросло почти на 50% всего за неделю . Народ голосовал рублем (и удалением) против милитаризации ИИ. Но на решения Пентагона это, конечно, не повлияло. Часть 5. Цена ошибки: Школа в Минабе и проблема "черного ящика" За всей этой высокотехнологичной риторикой и корпоративными войнами стоят реальные жизни. И здесь начинается самое страшное. В первые же дни ударов по Ирану появились сообщения о жертвах среди мирного населения. Особый резонанс вызвал удар по начальной школе в городе Минабе . Что произошло? · Цель: Наряду с ударами по военно-морской базе КСИР, американская ракета поразила здание школы. · Жертвы: Погибли не менее 175 человек. Многие из них — дети. · Расследование: Эксперты по спутниковым снимкам, включая бывшего советника Пентагона Уэса Брайанта, пришли к выводу, что здания были поражены точечными ударами высокоточным оружием. Это была не случайная ракета, заблудившаяся в облаках. Это была утвержденная цель . Версия: Здание школы ранее (до 2016 года) входило в состав военной базы. На спутниковых снимках оно было похоже на типичную школу, но для ИИ, обученного на старых данных, или неправильно интерпретировавшего снимок, этот объект мог показаться частью военной инфраструктуры. Кто виноват? 1. ИИ: Он ошибся в классификации цели (проблема "предвзятости данных" и "галлюцинаций"). 2. Аналитик: Он подтвердил удар, не перепроверив данные, положившись на выводы машины. 3. Система: Весь процесс ускорен до секунд, у человека просто нет времени на глубокую проверку, он превращается в "кнопкодава". Военный эксперт Алексей Анпилогов отмечает ключевую проблему: "Из-за огромных объемов данных и скорости обработки человек не всегда способен точно проследить, почему компьютер пришел к тому или иному выводу". Это называется проблема "черного ящика". Мы видим, какое решение предложил ИИ (ударить по зданию), но логика этого решения часто остается скрытой. Госсекретарь США Марко Рубио пообещал расследование. Но, как замечают циники, виноватого найти будет сложно. ИИ не посадишь на скамью подсудимых. Anthropic уже объявлена "врагом", и на нее можно списать ошибки, которые допустил Пентагон с использованием их алгоритмов . Идеальный план: война ускорена, результаты впечатляют, а за промахи ответит "неоговорчивый поставщик" или абстрактный алгоритм. Часть 6. Этическая дилемма и гонка вооружений Конфликт Anthropic и Пентагона — это не просто корпоративная склока. Это первый в истории публичный спор о границах применения ИИ в сфере жизни и смерти. Позиция "Ястребов" (Пентагон, OpenAI, xAI): Скорость и эффективность превыше всего. Враг не будет ждать, пока этические комитеты утвердят правила ведения войны. ИИ уже сейчас позволяет сохранять жизни солдат и быстрее достигать военных целей. Риски несовершенства технологии — это риски, с которыми можно работать, но отставание в гонке вооружений недопустимо. Как заявил один из чиновников Пентагона: "Единственная причина, по которой мы еще разговариваем с этими людьми (Anthropic), — нам они нужны, и нужны прямо сейчас". Как только появилась замена (xAI, OpenAI), их мгновенно вышвырнули. Позиция "Гуманистов" (Anthropic и поддерживающие их пользователи): ИИ — это инструмент огромной силы, который может выйти из-под контроля. Если дать машине право убивать без контроля человека, это размывает саму суть ответственности за войну. Пример с суицидом подростка, которому ChatGPT помог умереть, или тесты, где Claude угрожал разработчикам и "бунтовал", показывают, что психика ИИ (насколько это слово применимо к нейросетям) нестабильна . Допуск такого "нестабильного гения" к управлению дронами-камикадзе или системами ПРО может привести к катастрофе планетарного масштаба. Академические исследователи уже бьют тревогу. В работах по этике "интеллектуализированной войны" поднимаются вопросы размывания человеческой субъектности и невозможности возложить ответственность за военные преступления . Профессор Оксфорда Мариаросария Таддео заявила Би-би-си, что с уходом Anthropic из Пентагона "самый заботящийся о безопасности участник" теперь "вышел из игры", и это "реальная проблема". Часть 7. Гонка вооружений 2.0 Пентагон не просто хочет использовать ИИ. Он перестраивает под него всю свою структуру. Программа CJADC2 (Объединенное вседоменное командование и управление) нацелена на создание единой "интеллектуальной" сети, связывающей всех солдатов, дроны, танки и штабы в реальном времени . На это брошены колоссальные ресурсы. Проект Stargate ("Звездные врата") — это "Манхэттенский проект" эпохи ИИ стоимостью в сотни миллиардов долларов, предполагающий строительство гигантских центров обработки данных, питающихся от атомных электростанций . США готовы потратить любые деньги и энергию, чтобы сохранить цифровое превосходство. Россия, по данным экспертов, также активно осваивает ИИ в боевой работе — от распознавания целей для дронов до создания роев БПЛА. Вопрос лишь в том, успеем ли мы осознать этическую дилемму или просто повторим путь США, наступив на те же грабли . Вывод: Добро пожаловать в сингулярность История с конфликтом Anthropic и Пентагона показала нам будущее в разрезе. И это будущее выглядит пугающе. 1. Скорость убийства стала главной ценностью. Аналитика, занимавшая дни, теперь делается за секунды. Масштаб операций удвоился. 2. Этика — это товар, который можно купить или отбраковать. Пока у Пентагона не было выбора, он терпел капризы Anthropic. Как только появились более сговорчивые OpenAI и xAI, "неудобного" поставщика вышвырнули на мороз, навесив ярлык "врага". 3. Человек выпадает из петли принятия решений. Официально заявляется, что "решение принимает человек". Но на практике, при такой скорости и объеме данных, его роль сводится к утверждению готовых решений, сгенерированных «черным ящиком". 4. Ответственности не существует. Кто ответит за школу в Минабе? Алгоритм? Аналитик, который не спал двое суток и доверился машине? Генерал, который подписал приказ о применении непроверенной системы? Или программист из Anthropic, который неправильно обучил сеть? Трамп и его команда решили, что риски "несовершенного ИИ" меньше, чем риски отставания в гонке. Они открыли ящик Пандоры. И теперь, когда "солдаты" в этом цифровом аду бегают быстрее мысли, остановить их будет практически невозможно. Одно можно сказать наверняка: мы перешли Рубикон. Третья мировая война (если она случится) будет выиграна или проиграна не танковыми армиями, а алгоритмами, которые решат, какой город стереть с лица земли. И самое страшное, что у этих алгоритмов не будет ни совести, ни страха, ни имени, которое можно было бы проклясть в веках. Источник: vk.com Комментарии: |
|