Генераторы «глубоких фейков»: Понятие подлинности и правды может исчезнуть |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-09-19 15:00 искусственный интеллект, кибербезопасность, слежка за людьми В США специалисты в сфере информационной безопасности ввели понятие «глубокий фейк» (deep fake). Термин «глубокий фейк» впервые появился в 2017 году для обозначения реалистичных фото, аудио, видео и других подделок, созданных с использованием технологии искусственного интеллекта (ИИ). Применение «глубоких фейков» может стать вызовом национальной безопасности в современном мире и вообще подорвать доверие к любой информации. Между тем технологии ИИ для создания «глубоких фейков» продолжают развиваться. В их создании задействован метод «машинного обучения». В «генерирующей состязательной сети» две системы «машинного обучения» обучаются на соревновании друг с другом. Первая сеть или генератор занимается созданием поддельных данных, таких как фотографии, аудиозаписи или видеозаписи, которые воспроизводят свойства исходного набора данных. Вторая сеть, или дискриминатор, занимается выявлением подделки данных. По результатам каждой сессии генератор сети настраивается для создания все более реалистичных данных. В сети продолжается машинное соревнование часто тысячи или миллионы сессий, пока генератор не улучшит характеристики данных до такой степени, что дискриминатор больше уже не сможет различать настоящие и поддельные данные. Как можно использовать «глубокие фейки»? Манипуляции в СМИ явление не новое, но применение технологии ИИ для создания «глубоких фейков» выводит ее на совершенно новый уровень. В результате применения ИИ «глубокие фейки» становятся все более реалистичными. Они быстро создаются и становятся все дешевле и дешевле. Скоро их можно будет создавать с помощью свободно распространяемого программного обеспечения и через возможности сдавать в аренду вычислительные мощности посредством цифровых облаков. Даже неквалифицированные операторы смогут скачать программные средства и, используя общедоступные данные, создавать все более и более убедительный поддельный контент. Технология «глубоких фейков» уже была использована для развлекательных целей. Например, пользователи социальных сетей «вставляли» сгенерированный образ известного актера Николаса Кейджа в фильмы, в которых он не снимался. Была, например, создана интерактивная выставка, которая включала образы картин художника Сальвадора Дали, которые он никогда не писал. Технологии «глубоких фейков» были задействованы в медицинских целях. Сгенерированные поддельные медицинские изображения использовались для создания самообучающегося алгоритма обнаружения редких заболеваний. Разумеется, «глубокие фейки» могут быть задействованы в информационной войне, когда, например, на фальсифицированных видеороликах предстанут государственные должностные лица или другие публичные деятели, дающие ущербные комментарии или ведущие себя неподобающим образом. Фальшивки, сгенерированные посредством технологии ИИ, смогут подрывать общественное доверие, негативно влиять на общественный дискурс или даже решать исход голосования. «Глубокие фейки» могут быть использованы для шантажа должностных лиц или лиц, имеющих доступ к секретной информации. Они могут быть задействованы для создания подстрекательского контента, когда, например, фальшивые видео будут демонстрировать несовершенные военные преступления, несовершенные террористические акты, а также сюжеты, создающие повод для радикализации населения, вербовки террористов или подстрекательства к мятежу и насилию. Кроме того, «глубокие фейки» создадут ситуацию, когда подлинный контент станут отрицать, утверждая, что все это подделка и «глубокий фейк». С распространением технологий «глубоких фейков» понятие подлинности и правды может исчезнуть вообще. «Глубокие фейки» требуют специализированных средств их обнаружения. Однако изощренная технология быстро прогрессирует к точке, когда «глубокие фейки» будет очень трудно или совсем невозможно обнаружить. В настоящее время в США Агентство перспективных исследовательских проектов (DARPA) имеет две программы, предназначенные для обнаружения «глубоких фейков», — Media Forensics (MediFor) и Semantic Forensics (SemaFor). Известно, что MediFor развивает алгоритмы автоматической оценки подлинности фотографий. В программе исследуются методы идентификации аудиовизуальных несоответствий в «глубоких фейках», в том числе несоответствие цифровой целостности, несоответствие законам физики и несоответствие семантической целостности, т. е. сравнение с другими источниками информации. В 2019 году программа MediFor получила $ 17,5 млн финансирования, а в 2020 году — $ 5,3 млн. После завершения создания программы в 2021 финансовом году ожидается «прием ее на вооружение» специальными операционными командами и разведывательным сообществом США. Аналогичным образом программа SemaFor разрабатывает алгоритмы, которые автоматически будут обнаруживать, атрибутировать и характеризовать как доброкачественные, так и вредоносные контенты, т. е. выявлять «глубокие фейки». Эта программа определяет семантические несоответствия, необычные черты лица или фон для определения «глубоких фейков». На 2020 год программа SemaFor получила $ 9,7 млн, и планируется получить $ 17,6 млн в 2021 финансовом году. SemaFor и MediFor рассматриваются как средства улучшения защиты против информационных операций вероятного противника. Вместе с тем эксперты по информационной безопасности полагают, что информационная война уйдет в сферу соревнования с самообучением алгоритмов защиты и алгоритмов нападения с созданием «глубоких фейков». Генераторы «глубоких фейков» будут быстро обновляться для устранения недостатков, позволяющих идентифицировать их средствами обнаружения. Технологии защиты против «глубоких фейков» планируется задействовать в социальных сетях. Встает вопрос об ответственности участников социальных сетей за распространение «глубоких фейков». По этой причине платформы социальных сетей, возможно, потребуют расширения средств маркировки и аутентификации распространяемого в них контента. Это может включать требование, чтобы пользователи сетей указывали время и место, где и когда был создан или отредактирован их контент. В результате распространение «глубоких фейков» может наложить чрезмерное бремя на социальные медиа-платформы или приведет к неконституционным ограничениям свободы слова и художественного самовыражения. Некоторые эксперты утверждают, что одного реагирования только с помощью технических средств будет недостаточно и вместо этого следует сосредоточить внимание на необходимости информирования общественности на счет «глубоких фейков». Однако здесь круг замкнется. Ведь подобная мера приведет к подрыву общественного доверия к любой информации вообще. В США появилась информация о развитии DARPA средств обороны против «глубоких фейков» — программах SemaFor и MediFor. Однако очевидно, что программы эти создаются с использованием ИИ через соревновательный процесс со средствами нападения — генераторами «глубоких фейков». Очевидно, что подобная часть программы остается засекреченной. Итак, добро пожаловать в настоящий мир постправды. 19.09.2020 Источник: eadaily.com Комментарии: |
|