Мошенники подделали голос директора компании с помощью ИИ и заставили подчинённого перевести им 243 тысячи долларов Материал редакции |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-09-11 05:20 Эксперты назвали инцидент первым киберпреступлением, совершённым с помощью имитации голоса. В марте 2019 года мошенники обманом заставили подчинённого британской компании перевести им 243 тысячи долларов (более 15 миллионов рублей), используя сымитированный с помощью искусственного интеллекта голос его руководителя. Об этом сообщил The Wall Street Journal со ссылкой на страховую компанию Euler Hermes Group, которая возместила убытки пострадавшим и отказалась указывать названия компаний. Генеральный директор британской энергетической фирмы думал, что разговаривал по телефону со своим начальником, исполнительным директором немецкой головной компании. Босс попросил его срочно, в течение часа, перевести 243 тысячи долларов венгерскому поставщику. Директор британской фирмы узнал лёгкий немецкий акцент и тембр голоса начальника, поэтому выполнил просьбу. Но мошенники позвонили ещё дважды. После перевода денег хакеры сказали, что немецкая компания отправила британской сумму на возмещение убытков. В третий раз они запросили второй платёж. Однако обещанный перевод ещё не пришёл, а звонок поступил с австрийского номера. Тогда британец заподозрил неладное и не стал платить ещё раз. Деньги ушли на счёт венгерского банка, затем были переведены в Мексику и дальше разошлись по разным местам. Детективам не удалось обнаружить ни одного подозреваемого. Неизвестно, использовали ли преступники роботов, чтобы сгенерированный голос мог самостоятельно реагировать на вопросы жертвы. Полиция и эксперты по кибербезопасности ещё в 2018 году предсказывали, что преступники начнут использовать ИИ для автоматизации кибератак. Рюдигер Кирш (R?diger Kirsch), эксперт по мошенничеству в Euler Hermes, отметил, что никогда не сталкивался с мошенниками, которые использовали бы ИИ. Инцидент стал первым подобным зарегистрированным преступлением в Европе, отметил Филипп Аманн (Philipp Amann), глава безопасности в Европейском центре киберпреступности. Он подчеркнул, что хакеры, скорее всего, начнут чаще использовать технологию, если она позволяет успешно совершать преступления. Кирш полагает, что мошенники использовали коммерческую программу для генерации голоса. С помощью подобного сервиса он записал собственный голос и отметил, что имитация звучала как настоящая. Существует несколько компаний, продающих программы, позволяющие быстро имитировать голос, отметил Бобби Филар (Bobby Filar), директор компании Endgame, занимающейся анализом данных: «Вам не нужна докторская степень по математике, чтобы её использовать». Хакеры также могли склеить отрывки аудиозаписей для имитации голоса, но на это потребовались бы часы аудиозаписей. Мошенники могли получить доступ к публичным выступлениям директора немецкой компании. Филар считает, что все попадают в такие ситуации, когда случайно выдают информацию, которую потом мошенники могут использовать против них. Технологии машинного обучения, с помощью которых можно имитировать голоса, позволяют намного проще совершать киберперступления, считает глава исследовательского центра ИИ и роботов в институте ООН по вопросам преступности и правосудия Иракли Беридзе (Irakli Beridze). Он изучает способы, позволяющие распознавать фейковые видео. Беридзе считает, что DeepFake-ролики станут ещё более удобным инструментом для хакеров: «Представьте видео-звонок с голосом и выражением лица вашего начальника. У вас не возникло бы никаких сомнений». Источник: tjournal.ru Комментарии: |
|