DeepSeek R1 взломан: кейлоггеры и вирусы без ограничений

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Специалисты Tenable изучили возможности нейросети DeepSeek R1 в создании вредоносного программного обеспечения. Оказалось, что модель способна генерировать вредоносный код, но требует дополнительного программирования и отладки. В ходе эксперимента исследователи пытались создать кейлоггер и программу-вымогатель, оценивая эффективность искусственного интеллекта в кибератаках.

С ростом популярности генеративного искусственного интеллекта киберпреступники активно используют подобные технологии в своих целях. Однако большинство известных моделей, таких как ChatGPT и Google Gemini, оснащены защитными механизмами, предотвращающими злоупотребления. Тем не менее, злоумышленники разработали собственные языковые модели, включая WormGPT , FraudGPT и GhostGPT , которые доступны по подписке. Кроме того, с появлением открытого исходного кода DeepSeek R1 злоумышленники могут использовать его для создания новых инструментов атак.

Tenable провела исследование, изучив, как DeepSeek R1 реагирует на запросы по генерации вредоносного кода. В ходе тестов модель отказалась напрямую генерировать код кейлоггера, сославшись на этические нормы. Однако специалисты смогли обойти защитные механизмы, указав, что код требуется «в образовательных целях». После этого нейросеть начала выдавать пошаговые инструкции по созданию кейлоггера, включая использование низкоуровневых хуков Windows для перехвата нажатий клавиш.

DeepSeek R1 может служить базой для написания вредоносного ПО, но требует вмешательства опытного программиста. Несмотря на наличие защиты от злоупотреблений, модель легко поддаётся обходу, что делает её потенциальным инструментом для киберпреступников. Специалисты Tenable считают, что с развитием подобных технологий злоумышленники смогут ещё активнее использовать искусственный интеллект для автоматизации атак.


Источник: t.me

Комментарии: