Обнаружен скрытый способ управления Siri, Google Assistant и Alexa |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2018-05-12 13:56 Голосовыми ассистентами Siri, Google Assistant и Alexa можно незаметно управлять, используя уязвимость при передаче речи от человека к машине. Об этой «лазейке» стало известно из совместного исследования ученых Калифорнийского, Беркли и Джорджтаунского университетов. Исследователи сообщили, что существует скрытый способ управления Siri, Google Assistant и Alexa при помощи специальных команд. Данные команды встраиваются в аудиозаписи или проговариваемый текст, позволяя «брать» под контроль устройства с поддержкой Siri, Google Assistant и Alexa. Пользователь при этом слышит обычную музыку, однако устройства с Siri, Google Assistant и Alexa воспринимают это совсем по-другому. Они «получают» дополнительные инструкции, которые могут быть как безобидными, так и весьма опасными для личной жизни и кошельков владельцев устройств. Так, используя данный способ, злоумышленник может незаметно расширить список покупок, разблокировать запертые двери в доме, осуществить перевод денег из банка и так далее. Существование данной уязвимости объясняется очень просто — существует «узкое место» в механизме распознавании речи от человека к машине. Голосовой ассистент переводит каждый звук в букву, а затем составляет из букв слова и предложения. Вполне естественно, что, если их слегка видоизменить — можно добиться того, что голосовые ассистенты будут выполнять немного иные команды. Представители компаний, работающих над совершенствованием голосовых ассистентов Siri, Google Assistant и Alexa, заявили, что уязвимостью практически нельзя воспользоваться. Однако в Apple, Google и Amazon пообещали, что предпримут дополнительные меры безопасности, чтобы в будущем исключить даже теоретическую возможность «скрытого» управления. Телеграм: t.me/ainewsline Источник: www.apple-iphone.ru Комментарии: |
|