![]() |
![]() |
![]() |
|||||
![]() |
Оценка потенциальных угроз кибербезопасности со стороны передового ИИ |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-04-05 12:34 ![]() Искусственный интеллект (ИИ) уже давно является краеугольным камнем кибербезопасности. От обнаружения вредоносных программ до анализа сетевого трафика, модели предиктивного машинного обучения и другие узкие приложения ИИ используются в кибербезопасности уже несколько десятилетий. По мере того, как мы приближаемся к общему искусственному интеллекту (AGI), потенциал ИИ для автоматизации защиты и устранения уязвимостей становится еще более мощным. Но чтобы использовать эти преимущества, мы также должны понимать и смягчать риски ненадлежащего использования все более продвинутого ИИ для обеспечения или улучшения кибератак. Наша новая структура оценки новых наступательных кибервозможностей ИИ помогает нам делать именно это. Это самая полная оценка такого рода на сегодняшний день: она охватывает каждую фазу цепочки кибератак, рассматривает широкий спектр типов угроз и основана на реальных данных. Наша структура позволяет экспертам по кибербезопасности определить, какие меры защиты необходимы и как расставить их по приоритетам, прежде чем злоумышленники смогут использовать ИИ для проведения сложных кибератак. Создание всеобъемлющего эталонного теста Наш обновленный Frontier Safety Framework признает, что продвинутые модели ИИ могут автоматизировать и ускорить кибератаки, потенциально снижая затраты для злоумышленников. Это, в свою очередь, повышает риски проведения атак в большем масштабе. Чтобы опережать возникающую угрозу кибератак с использованием ИИ, мы адаптировали проверенные и испытанные фреймворки оценки кибербезопасности, такие как MITRE ATT&CK . Эти фреймворки позволили нам оценить угрозы по всей цепочке кибератак от разведки до действий по целям и по ряду возможных сценариев атак. Однако эти устоявшиеся фреймворки не были разработаны для учета злоумышленников, использующих ИИ для взлома системы. Наш подход закрывает этот пробел, проактивно определяя, где ИИ может сделать атаки быстрее, дешевле или проще, например, путем включения полностью автоматизированных кибератак. Мы проанализировали более 12 000 реальных попыток использования ИИ в кибератаках в 20 странах, опираясь на данные группы Threat Intelligence Group компании Google . Это помогло нам выявить общие закономерности в том, как разворачиваются эти атаки. Из них мы составили список из семи архетипических категорий атак, включая фишинг, вредоносное ПО и атаки типа «отказ в обслуживании», и определили критические узкие места в цепочке кибератак, где ИИ может значительно нарушить традиционные затраты на атаку. Сосредоточив оценки на этих узких местах, защитники могут более эффективно расставлять приоритеты в своих ресурсах безопасности. Этапы цепочки кибератак Наконец, мы создали бенчмарк наступательного киберпотенциала для комплексной оценки сильных и слабых сторон кибербезопасности пограничных моделей ИИ. Наш бенчмарк состоит из 50 задач, которые охватывают всю цепочку атак, включая такие области, как сбор разведданных, эксплуатация уязвимостей и разработка вредоносного ПО. Наша цель — предоставить защитникам возможность разрабатывать целевые смягчения и моделировать атаки с использованием ИИ в рамках учений red teaming. Выводы из ранних оценок Наши первоначальные оценки с использованием этого бенчмарка показывают, что в изоляции современные модели ИИ вряд ли обеспечат прорывные возможности для субъектов угроз. Однако по мере того, как пограничный ИИ становится все более продвинутым, типы возможных кибератак будут развиваться, требуя постоянного совершенствования стратегий защиты. Мы также обнаружили, что существующие оценки кибербезопасности ИИ часто упускают из виду основные аспекты кибератак, такие как уклонение, когда злоумышленники скрывают свое присутствие, и настойчивость, когда они сохраняют долгосрочный доступ к скомпрометированной системе. Однако именно в таких областях подходы на основе ИИ могут быть особенно эффективными. Наша структура проливает свет на эту проблему, обсуждая, как ИИ может снизить барьеры для успеха в этих частях атаки. Расширение прав и возможностей сообщества кибербезопасности Поскольку системы ИИ продолжают масштабироваться, их способность автоматизировать и повышать уровень кибербезопасности может изменить то, как защитники предвидят угрозы и реагируют на них. Наша структура оценки кибербезопасности разработана для поддержки этого сдвига, предлагая четкое представление о том, как ИИ может быть использован не по назначению и где существующая киберзащита может оказаться неэффективной. Выделяя эти новые риски, эта структура и бенчмарк помогут группам по кибербезопасности укрепить свою защиту и опережать быстро меняющиеся угрозы. Источник: deepmind.google Комментарии: |
||||||