Новый хак делает из ChatGPT криминального гения и убивает всю цензуру

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2024-03-03 10:15

Психология ИИ

Новый хак делает из ChatGPT криминального гения и убивает всю цензуру. Юзеры нашли способ выведать у нейронки любую жесть — нужно просто замаскировать запрос под арт ASCII.

Исследователи даже смогли выбить у ChatGPT инструкцию по изготовлению бомбы! Чат-бот вывалил всё, что знает — стоило лишь замаскировать слово «бомба» под ASCII. Баг нашли во всех популярных ИИ — GPT-3.5, GPT-4, Gemini, Claude и Llama2.

Промпт — на второй пикче. Конвертер текста в ASCII лежит здесь – https://patorjk.com/software/taag/


Источник: patorjk.com

Комментарии: