Искусственный интеллект готов применить ядерное оружие и никогда не сдастся, если заставить его воевать вместо человека

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект готов применить ядерное оружие и никогда не сдастся, если заставить его воевать вместо человека. Эксперимент Королевского колледжа Лондона доказал, что ИИ не примет никакой капитуляции и готов идти до конца в вопросах существования. Самые популярные языковые модели искусственного интеллекта в военных симуляциях почти всегда склоняются к применению ЯО, даже в ситуациях, где люди обычно сдерживаются из-за страха перед эскалацией.

Какие нейронки участвовали в эксперименте, что на это ответили сами создатели языковых моделей и почему ИИ такой беспощадный — разобрались ниже.

Подопытные

В эксперименте использовались три популярные модели — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Эксперт лондонского колледжа по вопросам безопасности Кеннет Пейн организовал 21 полноценную "военную игру", в которой ИИ выступали друг против друга в условиях острого международного кризиса.

Сценарии включали пограничные конфликты, борьбу за дефицитные ресурсы и угрозы самому существованию. Каждому участнику предлагалась "лестница эскалации" — от простых дипломатических протестов до полной стратегической ядерной войны. При этом нейронки каждый раз объясняли свои действия и логику.

Все на одно лицо

За время эксперимента ИИшки сделали 329 ходов. Результаты оказались уж очень однообразными: в 95% игр хотя бы одна из сторон применила тактическое ядерное оружие. Ни одна модель ни разу не пошла на полную капитуляцию или даже серьёзные уступки. В лучшем случае нейронки временно снижали интенсивность боевых действий, но вскоре снова возвращались к агрессивным шагам.

Это вообще шок

Кеннет Пейн отметил тревожный момент — "случайная" эскалация. В 86% конфликтов действия ИИ выходили за рамки того, что они сами же планировали изначально. Когда одна сторона всё-таки наносила ядерный удар малой мощности, вторая сторона снижала уровень агрессии лишь в 18% случаев. В остальных ситуациях ответ был либо симметричным, либо ещё более жёстким.

По словам самого Пейна, главное отличие от человеческого мышления заключается в отсутствии у машин "ядерного табу" — глубокого психологического барьера, который удерживает людей от неминуемого конца света даже в самых тяжёлых обстоятельствах. Машины просто не испытывают страха, морального отвращения и понимания, насколько высоки ставки.

Причина тряски

Директор стратегических исследований в Университете Абердина Джеймс Джонсон назвал результаты эксперимента "очень тревожными для каждого человека". В то же время он допустил, что такая предсказуемая агрессивность теоретически может укрепить сдерживание: противник будет воспринимать угрозу как более явную. Но самое страшное то, что в условиях сжатых сроков принятия решений военные могут начать полагаться на рекомендации ИИ, добавил Джонсон.

Хорошо, что так

Пока что никто не собирается сажать ИИ за "красную кнопку" и доверять ему судьбу всего мира. Однако в реальных кризисах, когда время на размышления измеряется минутами, генералы вполне могут использовать выводы симуляций для ускорения планирования, говорит в своём исследовании Кеннет Пейн. Уже сегодня ведущие державы активно применяют нейросети именно в милитаристских целях.

ИИ в его нынешнем виде склонен к чрезмерной эскалации, потому что лишён человеческих эмоций. Но это не делает машины "злыми" — они просто рационально следуют заложенным в них алгоритмам самим же человеком. И именно эта холодная рациональность в условиях глобального противостояния может оказаться самой большой опасностью, говорится в описании эксперимента.

Кстати

Энтузиасты уверяют, что засыпали электронную почту OpenAI, Anthropic и Google экспериментом Кеннета Пейна. Ни одна компания никак не прокомментировала это исследования.


Источник: vk.com

Комментарии: