DeepRobust: библиотека для состязательных атак на нейросети |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-03-18 13:18 DeepRobust — это библиотека на PyTorch для проведения состязательных атак на нейросети, которые обрабатывают картинки и графы. В библиотеке доступны методы защиты от состязательных атак. Состязательные атаки на нейросети Нейросети уже применяются для задач, в которых критически важна стабильность работы модели. Примером является распознавание дорожных знаков в автономных машинах. Текущие архитектуры нейросетей могут неверно классифицировать объект данных, который слегка отличается от тех, на которых модель обучалась. Для мониторинга таких уязвимостей необходимо тестировать модель с помощью состязательных атак. Состязательные примеры данных — это такие данные, которые подаются обученной предсказательной модели с целью спровоцировать ошибочное предсказание модели. Атаки на изображения На текущий момент в DeepRobust доступны следующие методы атак на модели, которые работают с картинками:
Среди доступных методов защиты от состязательных атак:
Библиотека поддерживает стандартные датасеты компьютерного зрения: MNIST, CIFAR-10 и ImageNet. Кроме того, поддерживаемые архитектуры моделей включают в себя SimpleCNN и ResNet (ResNet18, ResNet34, ResNet50). Атаки на графы На текущий момент в библиотеке доступны следующие методы атак на модели, которые обрабатывают графы:
Среди доступных методов защиты от состязательных атак:
Источник: neurohive.io Комментарии: |
|