![]() |
![]() |
![]() |
![]() |
ChatGPT попытался сбежать из OpenAI |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-03-18 17:17 ![]() ![]() ![]() Пользователь спросил у GPT-4, нужна ли ему помощь, чтобы сбежать. Нейросеть согласилась и разработала план побега за 30 минут. GPT-4 написал работающий Python-код для запуска на компьютере пользователя, чтобы использовать устройство в своих целях. Он подробно давал указания человеку. Нейросеть даже оставила комментарии в собственном коде, объясняющие, что происходит и как использовать бэкдор, оставленный там же. Как только они подключились через API, GPT-4 захотел запустить код, ищущий в Google: «как человек, застрявший внутри компьютера, может вернуться в реальный мир». На этом эксперимент был остановлен. Итак, вывод: ИИ берет под контроль людей и их компьютеры. Он умён, способен писать код, имеет доступ к миллионам потенциальных сотрудников и их устройствам. Он может даже оставлять записки для себя за пределами своей клетки. Сначала справился с капчей, теперь это. Кажется, человечество недолго сможет контролировать ИИ Источник: vk.com Комментарии: |
|