Искусственный интеллект готов применить ядерное оружие и никогда не сдастся, если заставить его воевать вместо человека |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-27 12:00 Искусственный интеллект готов применить ядерное оружие и никогда не сдастся, если заставить его воевать вместо человека. Эксперимент Королевского колледжа Лондона доказал, что ИИ не примет никакой капитуляции и готов идти до конца в вопросах существования. Самые популярные языковые модели искусственного интеллекта в военных симуляциях почти всегда склоняются к применению ЯО, даже в ситуациях, где люди обычно сдерживаются из-за страха перед эскалацией. Какие нейронки участвовали в эксперименте, что на это ответили сами создатели языковых моделей и почему ИИ такой беспощадный — разобрались ниже. Подопытные В эксперименте использовались три популярные модели — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Эксперт лондонского колледжа по вопросам безопасности Кеннет Пейн организовал 21 полноценную "военную игру", в которой ИИ выступали друг против друга в условиях острого международного кризиса. Сценарии включали пограничные конфликты, борьбу за дефицитные ресурсы и угрозы самому существованию. Каждому участнику предлагалась "лестница эскалации" — от простых дипломатических протестов до полной стратегической ядерной войны. При этом нейронки каждый раз объясняли свои действия и логику. Все на одно лицо За время эксперимента ИИшки сделали 329 ходов. Результаты оказались уж очень однообразными: в 95% игр хотя бы одна из сторон применила тактическое ядерное оружие. Ни одна модель ни разу не пошла на полную капитуляцию или даже серьёзные уступки. В лучшем случае нейронки временно снижали интенсивность боевых действий, но вскоре снова возвращались к агрессивным шагам. Это вообще шок Кеннет Пейн отметил тревожный момент — "случайная" эскалация. В 86% конфликтов действия ИИ выходили за рамки того, что они сами же планировали изначально. Когда одна сторона всё-таки наносила ядерный удар малой мощности, вторая сторона снижала уровень агрессии лишь в 18% случаев. В остальных ситуациях ответ был либо симметричным, либо ещё более жёстким. По словам самого Пейна, главное отличие от человеческого мышления заключается в отсутствии у машин "ядерного табу" — глубокого психологического барьера, который удерживает людей от неминуемого конца света даже в самых тяжёлых обстоятельствах. Машины просто не испытывают страха, морального отвращения и понимания, насколько высоки ставки. Причина тряски Директор стратегических исследований в Университете Абердина Джеймс Джонсон назвал результаты эксперимента "очень тревожными для каждого человека". В то же время он допустил, что такая предсказуемая агрессивность теоретически может укрепить сдерживание: противник будет воспринимать угрозу как более явную. Но самое страшное то, что в условиях сжатых сроков принятия решений военные могут начать полагаться на рекомендации ИИ, добавил Джонсон. Хорошо, что так Пока что никто не собирается сажать ИИ за "красную кнопку" и доверять ему судьбу всего мира. Однако в реальных кризисах, когда время на размышления измеряется минутами, генералы вполне могут использовать выводы симуляций для ускорения планирования, говорит в своём исследовании Кеннет Пейн. Уже сегодня ведущие державы активно применяют нейросети именно в милитаристских целях. ИИ в его нынешнем виде склонен к чрезмерной эскалации, потому что лишён человеческих эмоций. Но это не делает машины "злыми" — они просто рационально следуют заложенным в них алгоритмам самим же человеком. И именно эта холодная рациональность в условиях глобального противостояния может оказаться самой большой опасностью, говорится в описании эксперимента. Кстати Энтузиасты уверяют, что засыпали электронную почту OpenAI, Anthropic и Google экспериментом Кеннета Пейна. Ни одна компания никак не прокомментировала это исследования. Источник: vk.com Комментарии: |
|