Эксперт по кибербезопасности, основатель компании Интернет-Розыск Игорь Бедеров

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-06-24 14:09

киберугрозы

Израиль продолжает наносить удары по Ирану, используя в том числе данные иностранных разведок, МАГАТЭ и продукты от компании Palantir, завязанные на искусственный интеллект.

В 2015 году Palantir разработала платформу Mosaic специально для МАГАТЭ в рамках СВПД (Соглашение по иранской ядерной сделке, известное также как Совместный всеобъемлющий план действий). Система анализирует массивы данных: спутниковые снимки, радиоперехваты, соцсети, агентурные отчёты, создавая своеобразного цифрового двойника ядерной программы. За десять лет она обработала свыше 400 млн данных по иранским объектам, инициировав более 60 внезапных инспекций МАГАТЭ.

В июне 2025 года система выявила 400 кг урана, обогащённого до 60%, — ключевой аргумент для резолюции МАГАТЭ (первой за 20 лет), после которой Израиль нанёс удары по Натанзу и Фордо.

Звучит как будущее: эффективно, революционно, с использованием новейших технологий, в том числе нейросетей. Но каждый, кто хоть немного знаком с нейронками, знает, как часто они ошибаются и насколько уверенно это делают.

Алгоритмы Palantir склонны генерировать ложные корреляции (например, интерпретировать гражданские исследования как военные разработки). «Галлюцинации» нейросетей возникают из-за статистической природы их работы. Они анализируют огромные массивы информации и делают «предсказания» на основе повторяющихся паттернов, при этом «не понимая» их смысла. ИИ может выдавать ложные срабатывания в самых разных случаях: недостаточно вводных, нестандартные условия. Недостаточно качественная, «зашумлённая» фотография может заставить сделать абсолютно неверные выводы. Модели, обученные «в тепличных условиях» на узких наборах данных, теряют адекватность в реальных условиях.

Вторая проблема — внедрение ИИ снижает критичность операторов. Исследования показывают, что люди склонны переоценивать точность алгоритмов: нейронка выдаёт быстрый результат, а перепроверка традиционными методами может занять очень много времени. Кроме того, сама система может не просто интерпретировать ложные данные как угрозу, но и запускать ответные действия без человеческого подтверждения, как это было показано OpenAI в этом году.

Третий — и главный — момент: ИИ воспроизводит предубеждения обучающей выборки и её составителей. Например, если в выборке, предназначенной для системы прогнозирования преступлений, этнические меньшинства помечаются как «группы риска», ИИ просто будет системно использовать тот же подход. А если разработчики изначально исходят из того, что ядерные объекты на территории Ирана есть и их много, нейросеть услужливо покажет их. Если ввести некорректный запрос (например, «найди все вражеские объекты в зоне X»), она постарается их найти даже при отсутствии таковых. ИИ не человек, он не чувствует ответственности или жалости, этической рефлексии его тоже не обучали.

Искусственный интеллект — пока ещё очень несовершенный инструмент, требующий от оператора очень высокой осознанности. Если ИИ обучается на собственных выводах (как в RLHF), ошибки накапливаются. А модели, тренированные на мирных данных, неадекватны в боевых условиях.

Все эти ошибки были бы просто ошибками, если бы речь шла о мирном времени и лабораторных исследованиях. Но сейчас эти ошибки как минимум стоят очень многих человеческих жизней, а как максимум способны спровоцировать дальнейшую эскалацию конфликта нескольких держав, некоторые из которых — ядерные.

Точка зрения автора может не совпадать с позицией редакции.

Специально для RT


Источник: vk.com

Комментарии: