Взлом через эмодзи — это реальные техники, используемые хакерами для обхода защит или скрытия вредоносного кода |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-12-18 15:06 Злоумышленники применяют эмодзи в мессенджерах вроде Discord для управления malware, а также для атак на ИИ-модели.? Атака Disgomoji Хакеры из Пакистана распространяют вирус Disgomoji через Discord, отправляя сообщения с эмодзи для удаленного управления ПК жертвы. Эмодзи служат командами: например, определенные смайлы активируют загрузку файлов или кражу данных.? Обход ИИ-защит Исследователи, включая сотрудника Mozilla, взламывают модели вроде ChatGPT, кодируя вредоносные инструкции в эмодзи или hex-формат. Это позволяет генерировать эксплойты, SQL-инъекции или обходить цензуру.? Скрытие в базах данных Эмодзи маскируют SQL-код в Unicode, что привело к уязвимостям в PostgreSQL и даже инциденту с казначейством США, где скрывались payloads более 10 лет.? Защита Используйте антивирусы с поведенческим анализом, отключите эмодзи в подозрительных чатах Discord и обновляйте ПО. Не кликайте на неизвестные ссылки с смайлами.? ---------=====?=====-------- Взлом эмодзи: угроза безопасности ИИ Модели искусственного интеллекта (ИИ) быстро развиваются, но с прогрессом приходит и риск. Казалось бы, безобидный эмодзи может стать лазейкой для кибератак, выявляя уязвимости в системе безопасности ИИ. В этой статье рассматривается, как работает взлом эмодзи и какие шаги мы можем предпринять для его предотвращения. Как работают модели искусственного интеллекта и почему токены важны. Крупные языковые модели (LLM), такие как ChatGPT и GPT-4, работают с использованием токенов , которые являются строительными блоками их возможностей обработки текста. Токен может представлять слова, знаки препинания или даже эмодзи. Понимание токенизации имеет решающее значение для выявления потенциальных уязвимостей безопасности в ИИ. Примеры токенов: "Привет" = 1 слово, 1 токен "Здравствуйте, меня зовут Уэс." = 5 слов, 2 знака препинания, 7 символов "Великолепно" = 2 токена "Supercalifragilisticexpialidocious" = 10 токенов Огненный смайлик (?) = 1 жетон. Смайлик (?) = 1 токен Эмодзи, выражающий изумление (?) = 2 токена Однако не все токены просты в использовании. Символы Юникода, особенно эмодзи, могут кодировать скрытые данные , что создает серьезные риски для безопасности. Проблема эмодзи: троянский конь для эксплойтов в области искусственного интеллекта. На первый взгляд, эмодзи кажутся безобидными. Но благодаря кодировке Unicode , их можно модифицировать, добавляя невидимые селекторы вариантов (VS1–VS256) . Эти селекторы не меняют внешний вид эмодзи для человека, но позволяют встраивать в него скрытые сообщения. Скрытые послания в эмодзи Киберпреступники могут использовать селекторы вариантов Unicode для сокрытия команд внутри эмодзи, фактически превращая их в «троянских коней», которых модели ИИ неосознанно обрабатывают. Когда модели ИИ взаимодействуют с этими измененными эмодзи, они могут интерпретировать скрытые инструкции, что потенциально может привести к утечкам данных, дезинформации или несанкционированным действиям . Пример скрытых данных Рассмотрим следующее предложение: «В этом предложении содержится скрытый смысл». Для человека это выглядит нормально. Но если скопировать и вставить в текстовый редактор, отображающий скрытые символы Юникода, могут появиться дополнительные закодированные данные , указывающие на скрытое сообщение. Внедрение подсказок: как злоумышленники обманывают модели ИИ. Одним из самых опасных способов взлома эмодзи является внедрение подсказок — техника, при которой скрытые команды встраиваются в подсказки ИИ. Злоумышленники могут манипулировать системой ИИ, не давая пользователю это понять. Как работает экспресс-инъекция: Команда закодирована в эмодзи. Пользователь, сам того не подозревая, добавляет смайлик в подсказку. Искусственный интеллект обнаруживает скрытую команду и выполняет её. Например, атака с внедрением подсказки может привести к тому, что ИИ будет отвечать только «lol» независимо от того, что спрашивает пользователь. Почему некоторые модели ИИ более уязвимы Некоторые модели ИИ, особенно те, которые предназначены для анализа, декодирования и решения головоломок , более подвержены взлому эмодзи. Эти модели могут тратить дополнительное время на интерпретацию скрытых данных Unicode, что увеличивает вероятность выполнения нежелательных команд. Укрепление безопасности ИИ: что необходимо сделать Системы безопасности ИИ должны развиваться, чтобы противостоять новым угрозам, таким как взлом эмодзи. Вот несколько ключевых мер защиты: 1. Аудит безопасности Unicode Разработчикам следует проводить всесторонние аудиты для выявления и нейтрализации рисков, связанных с кодированием и токенизацией в формате Unicode. 2. Усовершенствованные системы фильтрации Системы искусственного интеллекта должны обнаруживать и очищать скрытые селекторы вариантов Unicode перед обработкой входных данных. 3. Непрерывный мониторинг и установка обновлений Регулярные обновления и обнаружение аномалий в режиме реального времени могут помочь предотвратить возникновение новых угроз безопасности. 4. Повышение осведомленности в масштабах всей отрасли. Исследователи в области искусственного интеллекта, эксперты по безопасности и разработчики должны сотрудничать и обмениваться знаниями для эффективного решения проблем, связанных с постоянно меняющимися уязвимостями. Будущее безопасности ИИ Безопасность ИИ — это постоянная проблема. По мере того, как модели становятся все более сложными, будут появляться новые уязвимости. Взлом эмодзи — это тревожный сигнал , подчеркивающий важность упреждающей защиты от скрытых, но опасных киберугроз. Сохраняя бдительность и внедряя надежные меры безопасности , мы можем защитить системы искусственного интеллекта от эксплуатации и обеспечить их дальнейшую безопасную и этичную работу на благо общества. https://www.hirencode.dev/blogs/the-emoji-hack-risk-to-ai-security Источник: www.hirencode.dev Комментарии: |
|