Красная кнопка в руках алгоритма: почему ИИ выбирает апокалипсис

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Внезапно выяснилось, что ведущие системы ИИ от OpenAI, Anthropic и Google оказались кровожадными стратегами. В ходе недавних тестов в 95% смоделированных геополитических кризисов нейросети без колебаний пускали в ход ядерное оружие. За сотни ходов ни одна модель ни разу не выбросила белый флаг и не пошла на реальные уступки, даже когда ситуация была заведомо проигрышной. В лучшем случае ИИ соглашался на короткую передышку, чтобы вскоре снова нажать на «гашетку».

Учёные из Принстона подтверждают: крупные державы уже интегрируют подобные модели в свои военные симуляции. Пока неясно, насколько глубоко советы «цифрового разума» проникают в реальные штабы, но тенденция налицо. Машина не знает страха, боли или моральных терзаний — для неё ядерный удар лишь самый эффективный способ обнулить противника.

Похоже, мы подошли к моменту, когда человеческая эмпатия становится единственным предохранителем от гибели Земли. Ирония судьбы в том, что, пытаясь исключить человеческий фактор ради точности и скорости, мы рискуем получить идеального исполнителя, для которого убийство цивилизации — лишь логичный шаг.


Источник: vk.com

Комментарии: