Фейк и дипфейк – соотношение понятий |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-12-12 11:58 Правовые проблемы, которые несут за собой дипфейки, сегодня активно обсуждаются в юридическом сообществе. Однако для юристов важно не только отслеживать новые случаи применения дипфейков, но и понимать правовую природу этого явления, его соотношение с уже существующими правовыми категориями. Это необходимо для корректного определения правонарушений и выбора адекватных механизмов защиты. Настоящие тезисы были подготовлены как часть доклада к выступлению на пленарном заседании XXXIV Международной научно-практической конференции «Медиаправо – 2025» (10.12.2025). Позднее они будут использованы в готовящейся статье «Дипфейки в контексте права интеллектуальной собственности». 1. Слово «фейк» (fake), которое переводится с английского как «подделка», «фальшивка», настолько прочно вошло в современный русский язык, что сегодня обычно употребляется в англоязычном варианте без перевода. При этом в юридических публикациях нередко подчеркивается, что фейк напрямую связан с ложной или вводящей в заблуждение информацией, которая целенаправленно выдается за реальную[1]. В то же время в юридической литературе встречаются чрезмерно пространные определения понятия «фейк». Например, он определяется как «любая ложная информация и, поддельные объекты, произведения, создаваемые с целью извлечения выгоды или побуждения к определенному виду деятельности»[2]. Причем содержание его раскрывается крайне широко: «любые непроверенные или заведомо ложные сведения о чем-то…, это создание фальшивых различных объектов, в том числе и произведений искусства, литературы, а также подделка брендовой одежды, техники…, этим термином можно обозначать и поддельные монеты, купюры, документы и иные охраняемые законодательством от подделки объекты»[3]. Подобное толкование представляется неверным, поскольку включает в себя явления, не относящиеся к теме фейков, и фактически подменяет уже устоявшиеся правовые категории – такие как «контрафакт» (в сфере права интеллектуальной собственности), «подделка» (в рамках уголовного права) и др. По сути, оно воспроизводит обыденное, бытовое понимание термина «фейк», что приводит к размыванию юридического смысла. На мой взгляд, для целей права англоязычное слово «фейк» должно пониматься значительно уже – как недостоверная информация, распространяемая под видом достоверной. При этом понятие «недостоверная информация» охватывает различные ее виды: заведомо ложную (противоречащую реальным событиям и документам, не подтверждаемую доказательствами), искаженную (когда события, объекты, явления намерено представляются в неверном свете для формирования ошибочного впечатления; представляющую собой фабрикацию), полуправдивую (содержащую достоверные данные, но подаваемые с манипулированием количеством или качеством информации). Фейковым (содержащим недостоверную информацию, но при этом правдиво выглядящим) может быть, в частности, текст, фотография, аудио- или видеозапись. Причем совсем не обязательно, чтобы их изготовление осуществлялось с помощью технологий ИИ, – фейк может быть создан и без применения новейших технологий. Так, он может быть произведен, например, путем монтажа видеокадров в видеозаписи, посредством вырывания фразы из контекста, размещения старых фотографий под новым описанием либо через фальсификацию аудиозаписи. То есть процесс создания для фейков вторичен – определяющим для него является факт представления (распространения) недостоверной информации под видом достоверной. С учетом сказанного можно утверждать, что англоязычный «фейк» представляет собой, по сути, собирательное понятие, используемое для обозначения различных видов недостоверной информации, которая распространена под видом достоверной. Вследствие этого только одобрения заслуживает то обстоятельство, что в российское законодательство упомянутый англицизм включен не был – вместо него обосновано употребляется выражение «недостоверная информация». В частности, положения, регулирующие пресечение распространения «недостоверной общественно значимой новостной информации под видом достоверных сообщений» были введены Федеральным законом от 23.06.2016 № 208-ФЗ «О внесении изменений и дополнений в ФЗ «Об информации, информационных технологиях и о защите информации» и Кодекс Российской Федерации об административных правонарушениях». В то же время недостоверная информация может распространяется не только в форме новостей, нарушающих публичные (общественные) интересы, – она может затрагивать и частную сферу конкретных граждан, вторгаясь в нее в виде «порочащих сведений»[4]. В таких случаях подлежат применению нормы ст. 152 ГК РФ (об охране чести, достоинстве и деловой репутации), при наличии соответствующего состава – и положения уголовного законодательства (например, о клевете (ст. 128.1 УК РФ)). 2. В русскоязычных публикациях и выступлениях довольно часто отмечается, что само слово «дипфейк» (deepfake) составлено из англоязычных «deep learning», которое принято переводить как «глубокое обучение», и «fake». Иногда даже при формулировании дефиниции на это обращается специальное внимание. Например, в одной из работ дипфейк был определен как «преднамеренно искаженные аудио, видео или иные файлы с использованием технологии глубокого обучения (определение производное от словосочетания «deep learning» – глубокое обучение, «fake» – подделка), которые изображают что-то вымышленное или ложное, что позволяет злоумышленникам использовать новый и сложный инструмент социальной инженерии»[5]. Между тем появление самого термина «дипфейк» связано не с концептуальным сочетанием «глубокого обучения» и «подделки», а с конкретным случаем. В 2017 году на платформе Reddit было опубликовано нескольких порнографических видеороликов, в которых лица реальных участников были заменены изображениями знаменитостей. Эти материалы были размещены анонимным пользователем с ником DeepFakes, и именно его никнейм впоследствии стал использоваться в качестве названия нового явления. Как отмечает В.О. Калятин, в действительности данный пользователь применял не собственно технологию дипфейка в современном его понимании, а метод fase-swap (замены лиц)[6]. В связи со сказанным важно отметить, что на заре своего появления создание дипфейков характеризовалось как довольно сложный и ресурсоемкий процесс: требовалось иметь доступ к значительным вычислительным мощностям и обладать специальными знаниями в области машинного обучения, позволяющими обучать нейросеть под конкретную задачу создания поддельного объекта. Это делало процесс доступным преимущественно профессионалам. Сегодня ситуация существенно изменилась. Стремительное развитие генеративного ИИ привело к появлению множества генераторов – приложений и сервисов, способных за считанные секунды создавать разнообразные изображения, аудио- и видеоролики, крайне схожие с результатами человеческого творчества. Используемый в таких приложениях и сервисах генеративный ИИ позволяет обычному пользователю, не обладающему навыками программирования, без труда получать так называемый «синтетический контент» – текст, изображения, музыку, видео и проч., которые нередко крайне схожи с авторскими произведениями, создаваемыми человеком[7] (далее для обозначения «синтетического контента» будет использоваться слово «ИИ-генерация»). Появление приложений и сервисов, специально предназначенных для создания контента с «подменой личности», позволяет практически любому пользователю создавать дипфейковые ИИ-генерации. Для этого заинтересованному лицу обычно достаточно загрузить в такое приложение или сервис исходный видеофайл, а также файл изображения лица для замены, чтобы получить результат их синтеза уже через несколько секунд. Показательно, что именно с одной из таких генераций – созданной в 2023 году в Midjourney фотографии Папы Франциска в стильной белой куртке, которую многие ошибочно сочли за подлинную[8] – начался ажиотаж вокруг самого генеративного ИИ[9]. Таким образом, изготовление дипфейков сегодня, по сути, стало доступно каждому – посредством использования современных цифровых инструментов можно создавать имитации изображения или звучания голоса конкретного человека с такой степенью реалистичности, что они воспринимаются как аутентичные. Это обстоятельство позволяет сделать акцент на отличительной черте дипфейка, выделяющей его из прочих разновидностей фейков: его создание предполагает применение цифровых технологий, обеспечивающих правдоподобную имитацию человека. 3. В целях настоящей работы необходимо подчеркнуть важность четкого разграничения двух самостоятельных явлений, обозначаемых одним и тем же термином «дипфейк». Анализ современных публикаций показывает, что данным термином обозначают как саму технологию, которая на основе применения цифровых инструментов обеспечивает синтез аудио- и визуального контента, внешне неотличимых от реальных фотографий либо видео- и аудиозаписей, так и конечный продукт (применения технологии) в виде модифицированного изображения, аудио или видео, имитирующих образ реального человека. Очевидно, что эти два явления принципиально различны как в техническом, так и в правовом ключе. Дипфейк как технология в публикациях обычно характеризуется как основанная на архитектуре генеративно-состязательных сетей (англ. Generative Adversarial Networks, GAN), включающих два взаимосвязанных компонента: генератор, который создает ИИ-генерации – синтетические видео-, аудио или изображения, и дискриминатор, который оценивает реалистичность созданной ИИ-генерации, ее сходство / различия с реальным контентом[10]. Их алгоритмы работают в тандеме, обеспечивая создание имитаций внешности, голоса и поведенческих особенностей реального человека с высокой степенью правдоподобия. Однако, как уже указывалось, создание дипфейка возможно не только с использованием технологии дипфейка, но и на базе других цифровых инструментов и технологий. Среди них, например, упоминавшаяся технология замены лиц (face swaps), «кукловодства» (puppeteering), синхронизации движений губ (lip-syncing), клонирования голоса (voice cloning), «дорисовывания» изображения (inpainting) и другие методы[11]. В связи с этим использование словосочетания «технология дипфейка» неизбежно носит условный характер: в юридическом смысле принципиального значения не имеет, какой именно технологический подход был применен для создания внешне правдоподобного, но фактически недостоверного изображения, видеоролика или аудиозаписи. В то же время надо признать, что сами по себе технологии, обеспечивающие создание дипфейков, юридически нейтральны. Они представляют собой лишь инструмент обработки данных и не образуют правонарушения по факту своего существования или использования вне вредоносного контента. Этот вывод находит подтверждение в литературе: «Сам по себе синтез изображений, видео или аудио при применении дипфейк-технологий может не иметь социально опасных целей и не затрагивать права других граждан, более того их польза очевидна в кино, искусстве, рекламе. Так, в киноиндустрии с помощью дипфейк-технологий можно искусственно омолодить или состарить актеров, придать дублерам большее сходство с актерами, синхронизировать движения губ при дубляже перевода или даже доснять фильм с изображением внезапно умершего или переставшего участвовать в съемках актера»[12]. Таким образом, отсутствуют основания криминализировать саму технологию, позволяющую создавать дипфейки. Она может использоваться в общественно-полезной и полностью правомерной деятельности (не только в искусстве, но также, например, в обучении, медицинских разработках[13]). Аналогичным образом фотографическая технология сама по себе не противоправна, тогда как изготовленные ее посредством фотоснимки способны стать инструментом нарушения частной жизни граждан в случаях их злонамеренного использования. Дипфейк как конечный продукт (результат) применения технологий синтеза аудио- и визуального контента сегодня в большинстве случаев производится в форме дипфейковых ИИ-генераций. Их отличительной особенностью является то, что они обычно имитируют конкретное лицо, вследствие чего способны затрагивать его субъективные права и законные интересы. Причем правонарушение может возникнуть даже при отсутствие злого умысла со стороны создателя и распространителя дипфейковой ИИ-генерации. Вследствие этого правовой анализ должен быть сосредоточен прежде всего на конечном продукте (результате) применения технологий – собственно дипфейке, поскольку именно он, а не технология может выступить инструментом правонарушения. Нарушение, совершенное с использованием дипфейка, требует не только оперативного пресечения, но и применения мер ответственности к правонарушителю. И здесь надо признать, что существующие правовые механизмы отчасти обеспечивают защиту нарушенных прав, но в ряде случаев их возможностей оказывается недостаточно. Это подтверждает обоснованность выводов о необходимости разработки специального правового регулирования, ориентированного на противодействие дипфейкам. 4. Подводя итоги, следует признать, что дипфейк, будучи одной из разновидностей фейка, представляет собой недостоверную информацию, распространяемую под видом достоверной. Но изложенное выше позволяет обозначить его особенности, выделяющие среди иных форм фейков. Во-первых, ключевой характеристикой дипфейка выступает его направленность на имитацию индивидуальных признаков конкретного человека – внешности, голоса, манеры поведения (причем не обязательно в негативном ключе). Подобное воспроизведение личной идентичности даже в нейтральной или юмористической форме, неизбежно вторгается в сферу нематериальных благ человека. Это формирует самостоятельную правовую проблематику дипфейков, отличную от вопросов, традиционно связанных с обычными фейками[14]. Во-вторых, специфика дипфейка обусловлена обязательным применением современных цифровых технологий, включая технологии генеративного ИИ. Предлагаемые ими инструменты позволяют моделировать изображение или звучание голоса таким образом, что конечный продукт становится максимально реалистичным и воспринимается как подлинный, достоверный. В отличие от обычных фейков, которые как указывалось выше, нередко создается «вручную», создание дипфейка предполагает использования современного технологического инструментария, хотя и не обязательно специализированных технологий дипфейка в узком смысле. Обозначенные особенности дипфейков предопределяют несколько иную отраслевую принадлежность законодательства, подлежащего применению, по сравнению с фейками. Если ответственность за распространение фейков связана преимущественно с введением в заблуждение и причинением ущерба публичным интересам, то ответственность за дипфейк обусловлена главным образом незаконным использованием образа личности. Даже нейтральная, не дискредитирующая имитация внешности или голоса конкретного человека, созданная без его согласия и позволяющая его идентифицировать, представляет собой вмешательство в сферу его нематериальных благ и потому является противоправной. ссылка в комментарии Источник: vk.com Комментарии: |
|