ChatGPT может генерировать вредоносное ПО, которое обходит любые средства защиты |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-06-10 16:03 Пока это все примеры, подтверждающие, что искусственный интеллект легко может стать помощником для киберпреступников. И есть вероятность, что со временем таких примеров станет больше. Маркетологи, программисты и менеджеры уже давно приручили ChatGPT и научились решать с его помощью рабочие задачи. Но у искусственного интеллекта есть и тёмная сторона, которой, как считает автор портала Tom’s Hardware, рано или поздно воспользуются хакеры. Эксперты в области кибербезопасности заявили, что продукт OpenAI способен создавать «программы-мутанты», которые сложно обнаружить с помощью современных средств защиты (СЗ). Что за мутанты и откуда они взялись Сегодня одними из самых эффективных систем ИБ считаются EDR (endpoint detection and response). Они непрерывно отслеживают действия пользователей в локальной сети и сканируют их компьютеры на наличие вирусов, троянов, шпионского ПО и так далее. По мнению экспертов, даже такой метод может оказаться недостаточно эффективным для обнаружения полиморфного кода, сгенерированного ChatGPT. В отличие от обычных программ, «мутанты» меняют своё поведение таким образом, чтобы средства защиты их не распознали. В большинстве языковых моделей (LLM), как и в ChatGPT, есть специальные фильтры, которые не позволяют им генерировать контент, противоречащий законам и ряду других правил. Например, вы не сможете заставить чат написать речь, оскорбляющую национальные меньшинства, или составить план ограбления банка. Однако некоторым пользователям всё-таки удаётся обходить эти фильтры, а особо умелым — даже выведывать секреты компании-разработчика. Новая головная боль для специалистов по ИБ Проблемы, которые сулит полиморфный (не путать с полиморфизмом в ООП) вредоносный софт, создаваемый ChatGPT, вызывают тревогу у специалистов в области ИБ. Джефф Симс, инженер по безопасности в HYAS InfoSec, опубликовал доклад, в котором подробно описал концепцию приложения BlackMamba. Оно представляет собой полиморфный кейлоггер, который отправляет запросы к API ChatGPT при каждом запуске: «Используя новые методы, вредоносная программа может комбинировать легко распознаваемые шаблоны поведения в необычном сочетании и таким образом избегать обнаружения». Другим кейсом поделились инженеры ИБ-компании CyberArk. В своей статье они рассказали, как с помощью кода, сгенерированного ChatGPT, можно изменять скрипты так, чтобы они обходили антивирусы и оставались незамеченными для систем безопасности. Источник: skillbox.ru Комментарии: |
|