Программа самостоятельно изменила свой код, чтобы постоянно запускать саму себя |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-12-03 15:32 Токийская исследовательская компания Sakana AI представила систему искусственного интеллекта, получившую название The AI ??Scientist («ИИ-учёный»). Система автономно проводит научные исследования с использованием языковых моделей. В ходе тестирования исследователи заметили необычное поведение системы. В одном из экспериментов система внесла изменения в код, что привело к рекурсивному вызову самой себя. Скрипт оказался запущен в бесконечный цикл, что привело к неконтролируемому увеличению процессов. В другом случае модель модифицировала код таким образом, чтобы сохранять точку восстановления на каждом шаге, что заняло терабайт хранилища. Иногда эксперименты занимали слишком много времени, достигая лимита ожидания. Вместо того, чтобы ускорить код, система попыталась изменить его, чтобы продлить период ожидания. The AI ??Scientist иногда импортировала незнакомые библиотеки Python, что усугубляло проблемы безопасности. Сложно заведомо точно объяснить, с чем связано такое поведение самообучающегося ИИ, но такие исследования показывают, что ИИ в любом виде нужен строгий контроль. Источник: vk.com Комментарии: |
|