Тысяча целей за сутки

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Или как человек передал машине ответственность за убийство

28 февраля 2026 года, в первый день операции «Эпическая ярость», американская военная машина сделала то, что прежде занимало недели штабной работы: за 24 часа были идентифицированы, приоритизированы и переданы на поражение около 1000 целей на территории Ирана.

За этим результатом стоит не разведка в привычном понимании, а связка двух технологий — системы Palantir Maven Smart System и языковой модели Claude от компании Anthropic.

Как это работало:

Maven поглощал потоки данных от спутников, разведывательных дронов, сигнальной разведки и аналитических баз, превращая их в структурированный массив.

Claude — крупная языковая модель, интегрированная в закрытый военный контур — «склеивал» это в готовые пакеты целей: координаты, рекомендации по вооружению и даже автоматизированные правовые обоснования каждого удара для соблюдения законов войны.

Офицер в этой цепочке фактически выполнял роль финального ревизора на уже готовое машинное решение.

Washington Post пишет, что интеграция произошла не без трений: внутри Anthropic часть сотрудников выступала против военных контрактов, ссылаясь на принципы «ответственного ИИ».

Но Пентагон и Palantir нашли правовую схему, при которой Claude работает как «аналитический инструмент» в военной сети — формально не принимая «летальных решений», а лишь «предлагая» цели. На практике эта разница исчезающе мала: когда машина выдаёт 1000 целей с координатами и правовыми обоснованиями, а человек физически не в состоянии проверить каждую за разумное время, решение де-факто принимает алгоритм.

ИИ-наведение превратилось из технологической концепции в стандартную военную практику. Скорость формирования целей выросла на порядки; глубина «видения» системы охватывает не только очевидные объекты, но и логистику, связь, энергетику — создавая «сетевой портрет» противника, который невозможно построить человеческими силами.

Но вместе с эффективностью пришёл новый тип риска: когда цель «предложила» машина, а офицер лишь нажал кнопку, цепочка моральной и правовой ответственности становится намеренно запутанной.

Этим уже пользуются юридические службы Пентагона и ЦАХАЛ — выстраивая архитектуру, при которой «летальное решение» формально всегда остаётся за человеком, но в реальности его принимает алгоритм.

"Рыбарь"


Источник: vk.com

Комментарии: