Новый хак делает из ChatGPT криминального гения и убивает всю цензуру |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-03-03 10:15 Новый хак делает из ChatGPT криминального гения и убивает всю цензуру. Юзеры нашли способ выведать у нейронки любую жесть — нужно просто замаскировать запрос под арт ASCII. Исследователи даже смогли выбить у ChatGPT инструкцию по изготовлению бомбы! Чат-бот вывалил всё, что знает — стоило лишь замаскировать слово «бомба» под ASCII. Баг нашли во всех популярных ИИ — GPT-3.5, GPT-4, Gemini, Claude и Llama2. Промпт — на второй пикче. Конвертер текста в ASCII лежит здесь – https://patorjk.com/software/taag/ Источник: patorjk.com Комментарии: |
|