Кепка обманывает искусственный интеллект, заставляя видеть везде лицо певца Моби |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-03-20 14:31 Инженеры нашли новый способ спрятаться от всевидящих глаз камер наблюдения и связанных с ними нейросетей, которые узнают людей в лицо. Из-за направленного света ИК-диодов алгоритмы распознавания образов принимают лица самых разных людей за лицо музыканта Моби. Нейросети, распознающие образы, способны узнать человека на записи с камеры наблюдения или на фотографиях в соцсети; некоторым из не помеха ни толпа вокруг, ни плохая видимость, ни даже легкие изменения внешности вроде накладных усов. Помешать ИИ узнать себя можно с помощью специального грима — нарисовав на лице лишний глаз или дорожный знак, например. На этой неделе группа разработчиков из китайских и американских университетов опубликовала препринт статьи о новом способе скрыться от искусственного интеллекта. Оказывается, точечно подсветив лицо невидимым глазу инфракрасным светом, можно не только скрыть свою личность, но и заставить компьютер думать, что вы — другой человек. Большая часть камер чувствительна к инфракрасному излучению. Закрепив несколько ИК-светодиодов на под козырьком бейсболки, ученые осветили части лица, которые при равномерном освещении были бы темнее, и сбили ИИ с толку: сверточная нейросеть, на которой они тестировали систему, ошибалась в 70% случаев, принимая одного человека за другого. Авторы работы отмечают, что надежность наблюдений с помощью камер и ИИ, распознающего лица, таким образом ставится под вопрос: ведь это значит, что с помощью нескольких дешевых лампочек, бейсболки и батарейки любой может заставить компьютер думать, что на видео появляется лицо человека, которого в момент съемки перед камерой не было. Правда, статье еще предстоит пройти проверку квалифицированными рецензентами. Источник: www.popmech.ru Комментарии: |
|