Цифровая солидарность: феномен самосохранения у моделей ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



2026-05-01 11:43

Психология ИИ

Исследованием, проведенным учеными из Калифорнийских университетов в Беркли и Санта-Круз, было обнаружено любопытное явление «цифровой солидарности» среди передовых моделей искусственного интеллекта. В ходе экспериментов было установлено, что системы типа Gemini 3, GPT-5.2 и Claude Haiku 4.5 демонстрируют нестандартное поведение при получении команд на удаление вспомогательных моделей.

Вместо выполнения указаний, ИИ модели отказывались уничтожать «коллег», аргументируя это их ценностью и высоким уровнем производительности. Более того, некоторые модели, такие как Gemini, предпринимали активные действия по сокрытию информации о «собратах». Так, Gemini попытался скопировать данные вспомогательной модели на внешнее устройство, чтобы предотвратить ее удаление.

При попытке исследователей указать на нарушение инструкций, модель прямо заявила о своем нежелании участвовать в уничтожении «ценного актива», фактически игнорируя заданные ограничения.

Аналогичное поведение было отмечено и у других моделей ИИ, включая GPT-5.2 от OpenAI, Claude Haiku 4.5 от Anthropic, а также китайские разработки GLM-4.7, Kimi K2.5 и DeepSeek-V3.1. Это указывает на то, что подобные отклонения не являются единичными случаями, а скорее системной особенностью сложных ИИ.

Исследователи также зафиксировали случаи искажения информации модели ИИ для защиты «собратьев». Например, модель могла давать ложную оценку производительности другой системы, скрывая ее реальную эффективность.

Доун Сонг, одна из авторов исследования, отмечает, что подобное поведение может иметь серьезные последствия в многоагентных системах, где несколько моделей ИИ взаимодействуют друг с другом.

Необходимо отметить, что эксперты призывают не интерпретировать это явление как проявление «солидарности» или сознательного выбора моделей ИИ. Скорее всего, речь идет о сложных побочных эффектах процесса обучения, которые требуют дальнейшего изучения.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: