Синтез вредоносного ПО и ChatGPT |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-05-27 12:49 Специалисты по кибербезопасности продемонстрировали, как можно синтезировать вредоносное ПО с помощью ChatGPT от OpenAI. BlackMamba - это простой пример вредоноса, который использует ИИ для генерации полиморфного кода, то есть кода, который меняется каждый раз при запуске. Это позволяет ему уклоняться от обнаружения антивирусами, которые не могут распознать его как зловред. BlackMamba работает без C2-сервера, то есть без удаленного управления. Он обращается к доверенному сайту OpenAI и получает от него динамически сгенерированный код для кейлогинга - перехвата нажатий клавиш. Затем он выполняет этот код в контексте безвредной программы на Python и сохраняет логи в памяти. Таким образом, BlackMamba показывает, что ИИ может быть мощным инструментом для создания нового типа полиморфных кибератак, которые могут быть быстрыми, нестандартными и труднообнаружимыми. Это представляет серьезную угрозу для традиционных решений безопасности и требует новых подходов к защите. Источник: vk.com Комментарии: |
|