Как ИИ маскирует вирусы

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-03-22 13:51

киберугрозы

Исследователи разработали алгоритм машинного обучения, использующий большие языковые модели (LLM) для автоматической обфускации вредоносного JavaScript-кода. В данном случае обфускация — это метод маскировки или усложнения исходного кода зловреда с целью затруднения его обнаружения и анализа антивирусными решениями и специалистами по кибербезопасности. Вредоносный код остается функционально тем же, но его структура изменяется таким образом, чтобы избежать детектирования традиционными средствами защиты.

Почему ИИ делает обфускацию кода особенно опасной?

Хотя полноценные атаки с использованием LLM пока редкость, они могут стать серьезной проблемой в будущем. Киберпреступники стремятся автоматизировать процесс генерации вредоносного кода и адаптировать атаки под конкретные цели. Пока возможности хакеров ограничены. ИИ часто допускает ошибки, перевирает синтаксис или создает неработающие конструкции, что делает такой подход неэффективным для массовых атак. Однако тренд есть: модели ИИ уже умеют видоизменять зловреды, внедряя в них ненужные элементы (например, «мусорный код»), изменяя структуру или переименовывая переменные, делая их менее заметными для сигнатурных антивирусов. Это ставит перед индустрией кибербезопасности новые вызовы, требующие проактивных решений.

Ранее защитные механизмы могли успешно противостоять предсказуемым шаблонам сокрытия кода, но теперь LLM-модели способны автоматически создавать практически бесконечное число уникальных вариаций. Это может осложнять работу традиционных методов детектирования и усложнять выявление вредоносных программ.

Опасность ИИ заключается не только в способности быстро перебирать варианты обфускации, но и в том, что он может комбинировать различные приемы, выявляя наименее заметные способы сокрытия вредоносного кода. Например, ИИ могут динамически изменять названия переменных, внедрять «мертвый» код, переформатировать структуру вредоносного файла и даже шифровать его содержимое. Это приводит к тому, что сигнатурные антивирусы и даже некоторые поведенческие анализаторы не способны эффективно отличить модифицированный вредоносный код от безопасного программного обеспечения.

Качество важнее количества

Несмотря на распространенное мнение, что хакеры могут просто завалить системы большим количеством «примитивных» вирусов, количество вредоносных программ само по себе не является решающим фактором. Дело в том, что антивирусные системы давно научились эффективно справляться с однотипными угрозами. Гораздо более серьезная опасность исходит от качественного изменения самих атак. Искусственный интеллект позволяет находить такие формы обфускации, которые ранее не встречались, и подбирать наиболее эффективные способы обхода защитных механизмов. В этом смысле ключевая проблема заключается не в количестве атак, а в их непредсказуемости.

Противодействие таким угрозам требует многоуровневого подхода, включающего сочетание различных методов кибербезопасности. Простая проверка сигнатур или анализ поведения уже недостаточны, так как злоумышленники могут адаптировать свои методы практически в реальном времени. Наиболее эффективными мерами защиты становятся мониторинг активности в реальном времени, выявление аномальных действий программ, динамическая верификация исполняемого кода и использование кибериммунных решений, которые блокируют выполнение вредоносных команд на уровне самой архитектуры системы.

Как Secure by Design и кибериммунитет могут противостоять таким атакам?

Философия Secure by Design предлагает наиболее надежный способ защиты, так как она изначально предусматривает устойчивость системы к взломам, а не просто реагирует на атаки постфактум. Операционная система KasperskyOS использует микроядерную архитектуру. При правильном проектировании решения, все критически важные процессы в системе изолированы, а взаимодействие между ними контролируются согласно прописанным политикам безопасности несанкционированное выполнение вредоносного кода становится невозможным.

Важно понимать, что искусственный интеллект можно использовать не только для атак, но и для защиты. Например, те же модели машинного обучения могут анализировать потенциально уязвимые участки кода и предсказывать методы, которыми хакеры могут попытаться их обфусцировать. Это позволяет разработчикам систем безопасности заранее разрабатывать механизмы защиты, которые адаптируются к новым угрозам в режиме реального времени.
ИИ, применяемый для обфускации вредоносного кода, представляет собой серьезный вызов для традиционных систем киберзащиты, однако принципы Secure by Design и кибериммунный подход обеспечивают устойчивость к атакам независимо от того, каким способом они были созданы.

Архитектура KasperskyOS исключает возможность выполнения несанкционированных действий, что делает ее защищенной по умолчанию. В сочетании с многоуровневыми механизмами безопасности и использованием самого ИИ в защитных целях это позволяет создать эффективную стратегию противодействия современным киберугрозам.


Источник: os.kaspersky.ru

Комментарии: