U of T Engineering AI researchers design ‘privacy filter’ for your photos that disables facial recog

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи в U из T Engineering разработали "фильтр конфиденциальности", который нарушает алгоритмы распознавания лиц. Система опирается на два созданных AI алгоритма: один выполняет непрерывное распознавание лиц, а другой предназначен для разрушения первого. (Кредит: Авишек Бозе

  • Исследователи в U из T Engineering разработали "фильтр конфиденциальности", который нарушает алгоритмы распознавания лиц. Система опирается на два созданных AI алгоритма: один выполняет непрерывное распознавание лиц, а другой предназначен для разрушения первого. (Кредит: Авишек Бозе).

    Researchers in U of T Engineering have designed a ‘privacy filter’ that disrupts facial recognition algorithms. The system relies on two AI-created algorithms: one performing continuous face detection, and another designed to disrupt the first. (Credit: Avishek Bose)

Каждый раз, когда вы загружаете фото или видео на платформу социальных сетей, ее системы распознавания лиц узнают о вас немного больше. Эти алгоритмы глотают данные о том, кто вы, Ваше местоположение и людей, которых вы знаете — и они постоянно совершенствуются.

Так как опасения по поводу конфиденциальности и безопасности данных на социальных сетях растут, у Т машиностроения исследователей во главе с профессором Пархам Aarabi (ЕЭК) и аспирант у авишек Бозе (ЕЭК Ганн кандидата) создали алгоритм для динамического срыва распознавания систем.

"Личная конфиденциальность является реальной проблемой, поскольку распознавание лиц становится лучше и лучше”, - говорит Аараби. "Это один из способов, с помощью которого полезные системы распознавания лиц могут бороться с этой способностью.

Их решение использует метод глубокого обучения, называемый состязательным обучением, который противопоставляет два алгоритма искусственного интеллекта друг другу. Аараби и Бозе разработали набор из двух нейронных сетей: первая работает над идентификацией лиц, а вторая работает над тем, чтобы нарушить задачу распознавания лиц первой. Они постоянно сражаются и учатся друг у друга, создавая непрерывную гонку вооружений ИИ.

Результатом является Instagram-подобный фильтр, который может быть применен к фотографиям для защиты конфиденциальности. Их алгоритм изменяет очень специфические пикселы в изображении, делая изменения, которые почти незаметны для человеческого глаза.

"Разрушительный ИИ может "атаковать" то, что ищет нейронная сеть для обнаружения лица”, - говорит Бозе. "Если AI ищет угол глаз, например, он регулирует угол глаз, чтобы они были менее заметными. Это создает очень тонкие помехи на фотографии, но для детектора они достаточно значительны, чтобы обмануть систему.

Аараби и Бозе протестировали свою систему на основе набора данных 300-W face, стандартного отраслевого пула из более чем 600 граней, включающего широкий спектр этнических групп, условий освещения и окружающей среды. Они показали, что их система может сократить долю лиц, которые были первоначально обнаружены, с почти 100 процентов до 0,5 процента.

"Ключевым моментом здесь была тренировка двух нейронных сетей друг против друга — с одной, создающей все более надежную систему распознавания лиц, а другой, создающей еще более сильный инструмент для отключения распознавания лиц”, - говорит Бозе, ведущий автор проекта. Команды исследования будут опубликованы и представлены на 2018 стандарта IEEE Международный семинар по мультимедийной обработки сигнала в конце этого лета.

В дополнение к отключению распознавания лиц, новая технология также нарушает поиск на основе изображений, идентификацию признаков, оценку эмоций и этнической принадлежности, а также все другие атрибуты лица, которые могут быть извлечены автоматически.

Далее, команда надеется сделать фильтр конфиденциальности общедоступным, либо через приложение или веб-сайт.

"Десять лет назад эти алгоритмы должны были быть определены человеком, но теперь нейронные сети учатся сами по себе — вам не нужно поставлять им ничего, кроме обучающих данных”, - говорит Аараби. "В конце концов, они могут сделать некоторые действительно удивительные вещи. Это увлекательное время в поле, есть огромный потенциал.


Источник: news.engineering.utoronto.ca

Комментарии: