DeepRobust: библиотека для состязательных атак на нейросети |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-03-18 13:18 DeepRobust — это библиотека на PyTorch для проведения состязательных атак на нейросети, которые обрабатывают картинки и графы. В библиотеке доступны методы защиты от состязательных атак. Состязательные атаки на нейросети Нейросети уже применяются для задач, в которых критически важна стабильность работы модели. Примером является распознавание дорожных знаков в автономных машинах. Текущие архитектуры нейросетей могут неверно классифицировать объект данных, который слегка отличается от тех, на которых модель обучалась. Для мониторинга таких уязвимостей необходимо тестировать модель с помощью состязательных атак. Состязательные примеры данных — это такие данные, которые подаются обученной предсказательной модели с целью спровоцировать ошибочное предсказание модели. Атаки на изображения На текущий момент в DeepRobust доступны следующие методы атак на модели, которые работают с картинками:
Среди доступных методов защиты от состязательных атак:
Библиотека поддерживает стандартные датасеты компьютерного зрения: MNIST, CIFAR-10 и ImageNet. Кроме того, поддерживаемые архитектуры моделей включают в себя SimpleCNN и ResNet (ResNet18, ResNet34, ResNet50). Атаки на графы На текущий момент в библиотеке доступны следующие методы атак на модели, которые обрабатывают графы:
Среди доступных методов защиты от состязательных атак:
Телеграм: t.me/ainewsline Источник: neurohive.io Комментарии: |
|