Обнаружен скрытый способ управления Siri, Google Assistant и Alexa |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-05-12 13:56 Голосовыми ассистентами Siri, Google Assistant и Alexa можно незаметно управлять, используя уязвимость при передаче речи от человека к машине. Об этой «лазейке» стало известно из совместного исследования ученых Калифорнийского, Беркли и Джорджтаунского университетов. Исследователи сообщили, что существует скрытый способ управления Siri, Google Assistant и Alexa при помощи специальных команд. Данные команды встраиваются в аудиозаписи или проговариваемый текст, позволяя «брать» под контроль устройства с поддержкой Siri, Google Assistant и Alexa. Пользователь при этом слышит обычную музыку, однако устройства с Siri, Google Assistant и Alexa воспринимают это совсем по-другому. Они «получают» дополнительные инструкции, которые могут быть как безобидными, так и весьма опасными для личной жизни и кошельков владельцев устройств. Так, используя данный способ, злоумышленник может незаметно расширить список покупок, разблокировать запертые двери в доме, осуществить перевод денег из банка и так далее. Существование данной уязвимости объясняется очень просто — существует «узкое место» в механизме распознавании речи от человека к машине. Голосовой ассистент переводит каждый звук в букву, а затем составляет из букв слова и предложения. Вполне естественно, что, если их слегка видоизменить — можно добиться того, что голосовые ассистенты будут выполнять немного иные команды. Представители компаний, работающих над совершенствованием голосовых ассистентов Siri, Google Assistant и Alexa, заявили, что уязвимостью практически нельзя воспользоваться. Однако в Apple, Google и Amazon пообещали, что предпримут дополнительные меры безопасности, чтобы в будущем исключить даже теоретическую возможность «скрытого» управления. Источник: www.apple-iphone.ru Комментарии: |
|