Технологии ИИ могут использоваться для создания «невидимого» вредоносного ПО

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В рамках конференции DEF CON эксперт компании Endgame Хайрум Андерсон (Hyrum Anderson) продемонстрировал систему, разработанную на основе фреймворка OpenAI, которая способна создавать «невидимое» вредоносное ПО, недетектируемое антивирусными решениями.

Принцип работы системы заключается в изучении того, как можно модифицировать вредоносные файлы так, чтобы избежать обнаружения антивирусами. По словам Андерсона, изменение небольших последовательностей байтов позволяет обмануть антивирусные программы даже в том случае, если они используют технологии машинного обучения.

«Все модели машинного обучения имеют «слепые зоны». В зависимости от уровня знаний хакера их можно эксплуатировать», - отметил исследователь.

Андерсон и его коллеги разработали простой механизм создания вредоносного ПО путем незначительной модификации «нормального» кода. Созданные варианты сканировались антивирусом и на основе его ответов исследователи вносили изменения в код, таким образом создавая новые образцы, способные обходить защиту системы.

В течении 15 часов обучения система прошла более 100 тыс. проверок антивирусом. В результате 16% вариантов вредоносного кода смогли обойти защиту антивирусной программы. PoC-код генератора вредоносного ПО исследователи опубликовали на GitHub.


Источник: www.securitylab.ru

Комментарии: