ИИ на страже наших голосов

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2023-12-01 11:53

киберугрозы

Разработчики из Инженерной школы Маккелви Вашингтонского университета в Сент-Луисе создали AntiFake — новый защитный механизм на базе ИИ, предназначенный для предотвращения несанкционированного синтеза речи и противоправного использования голоса человека.

Обычные инструменты обнаружения синтезированного звука начинают работу только после того, как голос похищен и используется дипфейком. AntiFake же предотвращает сам синтез речи, затрудняя считывание необходимых характеристик из голосовых записей.

AntiFake гарантирует, что преступникам будет сложно использовать опубликованные голосовые записи для синтеза», — говорит соавтор работы Нин Чжан. — «AntiFake использует технику состязательного искусственного интеллекта, которая изначально была частью набора инструментов киберпреступников, но теперь мы используем ее для защиты от них самих. Мы лишь немного искажаем записанный аудиосигнал, возмущаем его ровно настолько, чтобы для людей-слушателей отличия были неуловимы, но для ИИ голос звучал совершенно по-другому».

Для того, чтобы AntiFake мог противостоять постоянно меняющимся инструментам потенциальных злоумышленников и неизвестным моделям синтеза, ученые создали инструмент, который способен развиваться и разбираться в новых моделях. Они протестировали его на пяти современных моделях синтеза речи. AntiFake достиг уровня защиты более 95% даже от ранее неизвестных ему коммерческих приложений. Ученые также протестировали удобство использования AntiFake с участием 24 человек, чтобы подтвердить, что инструмент технически доступен.

В настоящее время AntiFake может защищать короткие фрагменты речи, нацеленные на наиболее распространенный тип имитации голоса. Но, по словам Чжана, ничто не мешает расширению этого инструмента для защиты более длинных записей или даже музыки в продолжающейся борьбе с дипфейками.

«Мы хотим полностью защитить наши голоса», — говорит Чжан. — «Хотя я не знаю, что будет дальше с голосовыми технологиями искусственного интеллекта — новые инструменты и функции разрабатываются постоянно, — я все же думаю, что наша стратегия использования методов злоумышленников против них самих будет по-прежнему эффективной. ИИ остается уязвимым для состязательных атак. Мы сможем сохранить эту стратегию как выигрышную».


Источник: techxplore.com

Комментарии: