В открытых данных для обучения ИИ нашли более 12 000 (!) действующих учетных данных! ?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи Truffle Security обнаружили более 12 000 (!) действующих учетных данных (API-ключи, пароли и т.п.) в Common Crawl – огромном наборе данных, используемом для обучения больших языковых моделей (LLM)! ?

В чем опасность?

* LLM учатся на этих данных и могут начать предлагать небезопасные практики кодирования, даже на примере невалидных учетных данных. ?

* Утечка учетных данных из публичных репозиториев кода: Метод "Wayback Copilot" показал, что AI-чатботы типа Copilot могут получать доступ к данным из публичных репозиториев даже после того, как их сделали приватными, из-за индексации Bing. ?

* Масштаб проблемы: Обнаружено 20 580 уязвимых репо крупных компаний (Microsoft, Google, Intel и др.) с утечкой сотен приватных токенов и ключей.

Очередное напоминание о критической важности не хранить учетные данные в коде и контролировать данные, используемые для обучения AI. Иначе "умный" ИИ научит нас плохому!


Источник: vk.com

Комментарии: