Взлом BERT: Понимание его уязвимостей для распознавания именованных объектов с помощью состязательной атаки |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-09-26 02:38 Для задач обработки естественного языка (NLP) широко используются как общие, так и специфические для конкретной области модели BERT. В данной работе авторы исследуют уязвимость моделей BERT к изменению входных данных для Named Entity Recognition (NER) с помощью состязательных атак. Экспериментальные результаты показывают, что оригинальные, а также специфические для конкретной области модели BERT очень уязвимы к замене entity: В 89,2-99,4% случаев их можно обмануть и ошибочно пометить ранее правильные. Ссылка на статью: https://arxiv.org/pdf/2109.11308v1.pdf Ссылка на GitHub: https://github.com/annedirkson/breakingbert Источник: github.com Комментарии: |
|