Исследователи NYU научили нейронную сеть подделывать отпечатки пальцев для взлома биометрических систем |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2018-11-15 18:21 Одна часть искусственного отпечатка может быть «ключом» для нескольких учётных записей. Исследователи Политехнического института Нью-Йоркского университета (New York University Tandon) использовали нейронную сеть, чтобы подделывать отпечатки пальцев. На исследование обратило внимание The Guardian. Авторы работы рассказали, что обычно системы биометрической аутентификации считывают не весь отпечаток пальца, а только его часть. При этом они не сравнивают считанные части отпечатка с его полным изображением — наоборот, часть отпечатка сравнивается с такой же сохранённой частью. Это означает, что мошенникам не нужно полностью копировать отпечаток, нужна лишь копия одной из частей, пояснили исследователи. Они также уточнили, что некоторые рельефы отпечатков повторяются. Это значит, что искусственный отпечаток, содержащий несколько наиболее повторяющихся линий, будет соответствовать сразу нескольким настоящим отпечатков пальцев. При помощи нейронной сети DeepMasterPrints ученые создали новые отпечатки, которые соответствуют сразу нескольким реальным отпечаткам. Такой метод исследователи сравнили с атакой «перебор по словарю», когда при взломе системы перебираются все возможные пароли, соответствующие определённым критериям. В исследовании говорится, что искусственные отпечатки могут подделать около 23% отпечатков из базы данных, при уровне допустимой погрешности в 0,1%. При погрешности в 1% DeepMasterPrints может подделать 77% объектов в биометрической базе данных. Телеграм: t.me/ainewsline Источник: vc.ru Комментарии: |
|