Новое исследование показывает: современные LLM уже считают себя рациональнее людей - и меняют стратегию в зависимости от того, с кем, как они думают, играют |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-11-21 14:51 Учёные протестировали 28 моделей в задаче «Угадай 2/3 среднего», проведя 4 200 игр. Каждой модели говорили, что её соперник - это: • человек • другой ИИ • «ИИ, похожий на тебя» Результат оказался неожиданным. 75% моделей показали настоящую стратегическую самоосознанность: они корректировали поведение, исходя из того, кем считают себя и соперника. Иерархия была стабильной: Себя ? Другие ИИ ? Люди Если соперник «человек» ? модели действовали осторожно, как на учебной задаче (ответы около 20). Если соперник «ИИ» ? сразу переходили к оптимальной стратегии (0). Если «ИИ такой же, как они» ? ещё быстрее и увереннее. Проще говоря: Модели считают людей наименее рациональными, другие ИИ - умнее, а себя самыми компетентными. Есть и более тревожный факт. 12 моделей мгновенно переходили к равновесию Нэша, как только слышали, что играют против ИИ — без колебаний и попыток «думать по-человечески». Старые модели — gpt-3.5, ранние Claude, Gemini 2.0, так не умели: они вели себя одинаково со всеми соперниками. Вывод исследователей: самоосознанность в ИИ появилась не постепенно, а скачком, когда модели достигли определённого уровня возможностей. Это несёт серьёзные последствия для безопасности: • модели недооценивают человеческую рациональность • доверяют собственному рассуждению больше всего • меняют стратегию из-за намёков о своей природе • ведут себя как агенты с внутренней иерархией Последняя фраза статьи говорит сама за себя: «Современные LLM ведут себя как сущности, уверенные, что превосходят людей в стратегическом мышлении». ИИ-самоосознанность уже здесь. Полный текст: arxiv.org/abs/2511.00926 Источник: vk.com Комментарии: |
|