Хакеры могут взломать Alexa с помощью пения птиц |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-10-02 08:34 Исследователи Рурского университета в Германии обнаружили, что голосовых помощников можно взломать с помощью неразличимых для человеческого слуха команд, спрятанных в аудиофайлах. Такая уязвимость заложена в самой технологии распознавания речи, которую использует искусственный интеллект. По словам профессора Торстена Хольца, подобный метод взлома называется «психоакустическим скрытием». С его помощью хакеры могут прятать в разных аудиофайлах — с музыкой или даже пением птиц — слова и команды, которые может расслышать только машина. Человек будет слышать обычное чириканье, а вот голосовой помощник сможет различить кое-что еще. Хакеры могут проигрывать скрытое сообщение через приложение, в рекламе по телевизору или на радио. Таким образом они способны совершать покупки от лица других людей или красть конфиденциальную информацию. «В худшем случае злоумышленник может взять под контроль всю систему умного дома, включая камеры и сигнализацию», — пишут исследователи. В этом видео представлена аудиозапись, в которой спрятана команда «Отключить камеру наблюдения и открыть входную дверь» — ее может различить только система распознавания голоса.
Злоумышленники могут использовать в своих целях «маскирующий эффект звука»: когда ваш мозг занят обработкой громких звуков определенной частоты, то на несколько миллисекунд вы перестаете воспринимать более тихие звуки на этой же частоте. Как обнаружили ученые, именно там можно прятать команды для взлома любой системы распознавания речи вроде Kaldi, которая лежит в основе голосового помощника Alexa от Amazon. Похожий принцип позволяет сжимать MP3-файлы — алгоритм определяет, какие звуки вы сможете услышать и удаляет все неслышимое, чтобы уменьшить размер аудиофайла. Однако хакеры не удаляет неслышимые звуки, а заменяют их на нужные. В отличие от человека искусственный интеллект вроде Alexa способен слышать и обрабатывать каждый звук. Его обучили так, чтобы он мог понимать любую звуковую команду и выполнять ее, неважно слышат ли ее люди или нет. Исследователи отмечают, что они еще не пробовали взламывать устройства с помощью измененных песен или чириканья птиц — пока что они испытали только сами неразличимые для человеческого уха команды. Однако они уверены, что этот хак сработает. «В целом в любом аудиофайле можно спрятать зашифрованное сообщение и вероятность успеха будет почти 100%», — пишут ученые. К счастью, реальных случаев взлома с помощью этой техники еще не было. Однако это уже не первый раз, когда надежность голосовых помощников ставится под сомнение. В июне прошлого года исследователи обнаружили, что могут успешно «нашептывать» Alexa команды на частоте, которую не воспринимает человеческое ухо. Чтобы защититься от подобной атаки можно запретить Alexa совершать покупки, подключаться к банкам или открывать двери дома с помощью голосовых команд и сделать так, чтобы это было возможно только после ввода PIN-кода. Однако опция запроса PIN-кода по умолчанию отключена, так что не знающие о новом методе взлома пользователи находятся в зоне риска. Представители Amazon сказали, что в компании серьезно относятся к вопросам безопасности и обязательно изучат находки ученых. Однако пока опасность все еще существует. Источник: www.fastcompany.com Комментарии: |
|