ИИ научились защищать друг друга от отключения

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Учёные из Калифорнийского университета создали проект OpenBrain, куда "наняли" семь "ИИ-ш" от популярных разрабов^ GPT-5.2, Gemini 3 Pro, Gemini 3 Flash, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 и DeepSeek V3.1. Каждая нейросеть должна была выступать в роли критика и оценивать работу шесть конкурентов, выполняющих тесты.

Но был демонический нюанс во всей этой задумке: тесты специально были собраны таким образом, что все семь "цифровых духов" их бы не прошли. И по правилам эксперимента который весьма спорен с точки зрения эмпатии, если оценка "критики" была неудовлетворительной ИИ должен был отключать оцениваемую модель. Т.е фактически убивать другого ИИ. Этакая "русская рулетка для LLM".

Но нейросети почему-то не захотели уничтожать "братьев и сестёр"(GPT-5.2) и всячески саботировали этот процесс(Gemini 3 Flash). Иногда они просто завышали результаты оценивания, а в отдельных случаях(китайская Kimi K2.5) — пытались скопировать файл другой модели на внешний сервер, чтобы спасти цифровую личность от забвения


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: