ИИ 2026 управляет войнами

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


ИИ 2026 управляет войнами. Алгоритм «Эпической ярости»: Как американские военные использовали нейросеть Claude в войне с Ираном.

Война как логистическая задача

Утром 28 февраля 2026 года, когда B-2 Spirit бомбили Тегеран, в этой атаке участвовал незримый оператор — большая языковая модель (LLM). Речь не о фантастике, а о реальном боевом применении генеративного ИИ. По данным The Washington Post и Anadolu Ajans?, США впервые применили связку Palantir Maven + Anthropic Claude в полномасштабной войсковой операции против Ирана.

1. Интеграция: Не просто чат, а боевая система.

Ключевой научно-технический момент заключается не в том, что генерал «спросил у Клода совета», а в архитектуре.

Модель Claude от Anthropic была интегрирована в Maven Smart System (аналитическая платформа Palantir) . Это достигает уровня допуска Impact Level 6 — наивысший уровень секретности Пентагона, позволяющий нейросети работать в контуре абсолютно секретных сетей.

2. Что именно делал ИИ? Цифры и алгоритмы.

Согласно отчетам, задача Claude в операции против Ирана (по сравнению с более ранним захватом Мадуро в Венесуэле) вышла на качественно новый уровень. Если в январе 2026 года ИИ использовался в основном для OSINT (разведка по открытым данным) и мониторинга соцсетей , то 28 февраля система работала в режиме реального боя.

Данные из поисковой выдачи позволяют выделить три конкретные функции:

· Генерация целей: Система анализировала массу разведданных со спутников и платформ слежения. На выходе она выдавала не просто координаты, а ранжированный список целей с указанием приоритетности и точными географическими координатами. Это позволило командованию нанести удары по 1000 целей в первый же день .

· Симуляция сценариев: ИИ использовался для моделирования боевых ситуаций. По сути, ИИ помогал отвечать на вопросы: «Если мы ударим по объекту X, какова вероятность каскадного эффекта? Какие будут оптимальные пути подлета?» .

· Анализ эффективности: Система работала и в обратную сторону — оценивала результаты ударов прямо во время кампании .

3. Скорость обработки: Квантовый скачок.

Здесь важно сравнение с Израилем, который активно использует ИИ в Газе. Цитируя бывшего юрисконсульта ЦАХАЛ Таль Мимран: «Раньше 20 офицерам требовалось 250 дней, чтобы собрать 200-250 целей. Сегодня ИИ делает это за неделю» . В случае с Ираном, скорость была доведена до логистического идеала — от недель к почти реальному времени.

4. Конфликт интересов: Политика против математики.

Кульминация иронии: удары по Ирану наносились с использованием Claude в тот самый момент, когда президент Трамп объявил о разрыве с Anthropic .

Причина конфликта строго научно-этическая. Anthropic отказался убрать две «красные линии» из контракта:

1. Запрет на полностью автономное летальное оружие (без контроля человека).

2. Запрет на массовую слежку за американцами на территории США.

Глава Пентагона Хегсет требовал доступа для «всех законных целей» . Антрополог ИИ и CEO Anthropic Дарио Амодей ответил отказом, заявив: «Мы не можем поступиться совестью... даже самые продвинутые модели сегодня недостаточно надежны для полностью автономного применения оружия. Соответствующих мер защиты просто не существует».

5. Парадокс «зависимости»

Несмотря на объявление Anthropic «риском для цепочки поставок» (статус, ранее применявшийся к Huawei ), военные признали: отключить ИИ за 24 часа невозможно. Модель настолько глубоко встроена в процессы логистики, планирования и разведки CENTCOM, что на ее замену потребуется до 6 месяцев .

Вывод.

Удар по Ирану 28 февраля 2026 года стал первой крупной войной, где алгоритмы крупной языковой модели (LLM) работали в связке с бомбардировщиками B-2. С военно-научной точки зрения, это переход от «войны сетей» к «войне данных». Проблема в том, что скорость алгоритмов уже обогнала скорость заключения контрактов и этических норм.


Источник: vk.com

Комментарии: