Исследователи NYU научили нейронную сеть подделывать отпечатки пальцев для взлома биометрических систем |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-11-15 18:21 Одна часть искусственного отпечатка может быть «ключом» для нескольких учётных записей. Исследователи Политехнического института Нью-Йоркского университета (New York University Tandon) использовали нейронную сеть, чтобы подделывать отпечатки пальцев. На исследование обратило внимание The Guardian. Авторы работы рассказали, что обычно системы биометрической аутентификации считывают не весь отпечаток пальца, а только его часть. При этом они не сравнивают считанные части отпечатка с его полным изображением — наоборот, часть отпечатка сравнивается с такой же сохранённой частью. Это означает, что мошенникам не нужно полностью копировать отпечаток, нужна лишь копия одной из частей, пояснили исследователи. Они также уточнили, что некоторые рельефы отпечатков повторяются. Это значит, что искусственный отпечаток, содержащий несколько наиболее повторяющихся линий, будет соответствовать сразу нескольким настоящим отпечатков пальцев. При помощи нейронной сети DeepMasterPrints ученые создали новые отпечатки, которые соответствуют сразу нескольким реальным отпечаткам. Такой метод исследователи сравнили с атакой «перебор по словарю», когда при взломе системы перебираются все возможные пароли, соответствующие определённым критериям. В исследовании говорится, что искусственные отпечатки могут подделать около 23% отпечатков из базы данных, при уровне допустимой погрешности в 0,1%. При погрешности в 1% DeepMasterPrints может подделать 77% объектов в биометрической базе данных. Источник: vc.ru Комментарии: |
|