ChatGPT может генерировать вредоносное ПО, которое обходит любые средства защиты

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Пока это все примеры, подтверждающие, что искусственный интеллект легко может стать помощником для киберпреступников. И есть вероятность, что со временем таких примеров станет больше. Маркетологи, программисты и менеджеры уже давно приручили ChatGPT и научились решать с его помощью рабочие задачи. Но у искусственного интеллекта есть и тёмная сторона, которой, как считает автор портала Tom’s Hardware, рано или поздно воспользуются хакеры. Эксперты в области кибербезопасности заявили, что продукт OpenAI способен создавать «программы-мутанты», которые сложно обнаружить с помощью современных средств защиты (СЗ).

Что за мутанты и откуда они взялись

Сегодня одними из самых эффективных систем ИБ считаются EDR (endpoint detection and response). Они непрерывно отслеживают действия пользователей в локальной сети и сканируют их компьютеры на наличие вирусов, троянов, шпионского ПО и так далее. По мнению экспертов, даже такой метод может оказаться недостаточно эффективным для обнаружения полиморфного кода, сгенерированного ChatGPT. В отличие от обычных программ, «мутанты» меняют своё поведение таким образом, чтобы средства защиты их не распознали. В большинстве языковых моделей (LLM), как и в ChatGPT, есть специальные фильтры, которые не позволяют им генерировать контент, противоречащий законам и ряду других правил. Например, вы не сможете заставить чат написать речь, оскорбляющую национальные меньшинства, или составить план ограбления банка. Однако некоторым пользователям всё-таки удаётся обходить эти фильтры, а особо умелым — даже выведывать секреты компании-разработчика.

Новая головная боль для специалистов по ИБ

Проблемы, которые сулит полиморфный (не путать с полиморфизмом в ООП) вредоносный софт, создаваемый ChatGPT, вызывают тревогу у специалистов в области ИБ. Джефф Симс, инженер по безопасности в HYAS InfoSec, опубликовал доклад, в котором подробно описал концепцию приложения BlackMamba. Оно представляет собой полиморфный кейлоггер, который отправляет запросы к API ChatGPT при каждом запуске:

«Используя новые методы, вредоносная программа может комбинировать легко распознаваемые шаблоны поведения в необычном сочетании и таким образом избегать обнаружения». Другим кейсом поделились инженеры ИБ-компании CyberArk. В своей статье они рассказали, как с помощью кода, сгенерированного ChatGPT, можно изменять скрипты так, чтобы они обходили антивирусы и оставались незамеченными для систем безопасности.


Источник: skillbox.ru

Комментарии: