Дипфейковая порнография – новая серьезная угроза от технологии ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Порнография, созданная искусственным интеллектом (ИИ), уже некоторое время активно распространяется по интернету и портит жизнь тем, кого в ней изображают. И наконец-то ей стало уделяться должное внимание. Почему? Во-первых, потому что сейчас технология развилась достаточно, чтобы создавать почти неотличимые от реальных изображения и видео. А во-вторых, потому что недавно от этого явления пострадала знаменитая певица Тейлор Свифт.

В январе в X (бывшем Twitter) кто-то распространил созданные ИИ порноизображения Тейлор Свифт, вызвав возмущение среди ее фанатов. На картинках Свифт изображена в порнографической сцене с участием группы футболистов.

Чтобы скрыть эти картинки, преданные фанаты наводнили платформу реальными изображениями поп-звезды и фразой «защитите Тейлор Свифт». Но их попытка не увенчалась успехом. Одно ИИ-изображение набрало более 45 млн просмотров, 24 тысячи репостов и сотни тысяч лайков, прежде чем аккаунт распространителя был заблокирован за нарушение политики платформы.

Тейлор Свифт — не единственная знаменитость, на которую нацелены создатели ИИ-порно. В прошлом Скарлетт Йоханссон и Эмма Уотсон также пострадали от фейковых порновидео.

Когда зрители видят эти ИИ-дипфейки, которые создатели называют «утечками», они легко верят, что это реальные изображения и ролики.

И хотя трагично, что Тейлор Свифт и другие знаменитости стали мишенью этого явления, еще большее беспокойство вызывает тот факт, что оно также травмирует большое количество обычных людей – не только взрослых, но и детей.

Недавно девочки-подростки из штата Нью-Джерси сообщили, что их одноклассники распростряют сгенерированные с помощью ИИ обнаженные изображения около 30 девочек из их школы. Мать одной из пострадавших, сказала, что она «напугана тем, как и когда это всплывет на поверхность. У моей дочери светлое будущее, и никто не может гарантировать, что это не повлияет на нее в профессиональном, академическом или социальном плане».

ИИ-порно — это зло, и оно не остановится ни перед кем.

Его невероятно легко создать. Некоторые создатели берут всего 20 долларов за видео с кем угодно, включая детей. И, как ни странно, в магазинах приложений можно скачать «обнажающие» приложения, которые позволяют любому при наличии четкой фотографии чьего-то лица создавать откровенные изображения этого человека одним нажатием кнопки.

Хотя технология, лежащая в основе ИИ-порно, впечатляет, ее использование порождает тревожные и далеко идущие последствия. Газета New York Post написала об этом: «Наше общество так боится идеи, что ChatGPT заменит нас на работе, но недостаточно боится того отвратительного факта, что ИИ отнимет у нас имидж и репутацию. Здравомыслие и психическое здоровье тоже. Нет предела хаосу и разрушению, к которым могут привести эти губительные, искажающие реальность инструменты искусственного интеллекта. И мы видим только верхушку айсберга».

По данным Sensity.ai, 90-95% дипфейковых технологий используют именно для создания такого недобровольного порно.

Чтобы видео и фото получались реалистичными, используют передовые алгоритмы и машинное обучение. Для этого берут реальные фото и видео людей без их согласия. Учитывая распространенность соцсетей, это означает, что люб_ая пользователь_ница интернета может оказаться в ИИ-порно без своего ведома и разрешения.

Использование фотографий людей без их согласия может иметь серьезные последствия. Пострадавшие от дипфейковой порнографии могут чувствовать себя униженными, беспомощными и даже испытывать ПТСР [Подробнее https://vk.com/safehousefoundation?w=wall-19096355_18194].

Одна стримерка с платформы Twitch, которая обнаружила себя в дипфейковом порно, сказала: «Мне хотелось вырвать себе глаза. Я увидела себя в позах, на которые никогда бы не согласилась, и делала то, чего никогда не стала бы делать».

В некоторых случаях использование ИИ-порно может привести к преследованию и шантажу, когда злоумышленники угрожают распространить контент, если пострадавш_ая не выполнит их требования.

Крупные ИИ-платформы пытались уменьшить генерацию насильственного и незаконного контента на своих сайтах, но это оказалось бесполезно. Недавно было обнаружено, что LAION, один из крупнейших наборов данных, используемых для обучения ИИ, содержит более 3 000 изображений с сексуализированным насилием над детьми [Подробнее vk.com/safehousefoundation?w=wall-19096355_18850].

В последние годы в интернете наблюдается экспоненциальный рост количества материалов с сексуализированным насилием над детьми, а технология дипфейков только ухудшает положение дел.

ЗАКОНЫ США И ИИ-ПОРНОГРАФИЯ

После того как лидеры технологической отрасли предупредили, что неконтролируемое развитие технологии ИИ «может представлять риск для человечества», президент Джо Байден в октябре 2023 года подписал указ, регулирующий развитие ИИ. И хотя несколько штатов приняли законы, регулирующие технологию, в настоящее время федерального закона об этом не существует.

Однако инцидент с дипфейками Тейлор Свифт идеально совпал с повторным внесением на рассмотрение законопроекта о запрете дипфейков интимных изображений. Благодаря ему, несогласованное распространение созданных ИИ порнографических изображений станет федеральным преступлением, за которое будут наказывать тюремным заключением и/или штрафом. Это также позволит пострадавшим подавать иски против преступников.

Помимо этого, рассматривается несколько законопроектов, направленных на создаваемый ИИ контент, который «имитирует реального человека, живого или мертвого». Эти законопроекты являются ответом на недавние завирусившиеся видео, в которых созданные ИИ песни исполняются имитированными голосами поп-звезд, таких как Джастин Бибер, Bad Bunny, Drake и The Weekend. Однако эти законопроекты в основном направлены на защиту творческой и интеллектуальной собственности знаменитостей, а не на защиту обычных граждан от дипфейков, созданных без согласия.

ЗАКОНОДАТЕЛИ И КРУПНЫЕ ТЕХНОЛОГИЧЕСКИЕ КОМПАНИИ ДОЛЖНЫ ВМЕШАТЬСЯ

Инцидент с дипфейком Тейлор Свифт — не первый случай использования дипфейковой порнографии без согласия и уж точно не последний. Законодатели должны принять меры по привлечению к ответственности создателей дипфейковой порнографии и начать регулировать развитие ИИ.

После публикации дипфейков Тейлор Свифт соцсеть X сделала следующее заявление: «Публикация обнаженных изображений без согласия в X строго запрещена, и мы придерживаемся политики абсолютной нетерпимости к такому контенту. Наши команды активно удаляют все подобные изображения и принимают соответствующие меры в отношении аккаунтов, ответственных за их публикацию…»

Но почему для всех этих действий нужно, чтобы инцидент с ИИ-порно произошел с «любимицей Америки»? Огромное количество простых людей также пострадали от этого цифрового оружия.

Вот почему следует поддерживать законопроекты, которые будут требовать, чтобы сайты, на которых размещают материалы сексуального характера, проверяли согласие всех, кто загружает контент и появляется в нем, а также удаляли изображения, загруженные без согласия.

Чрезвычайно важно и необходимо принять надежные законы, нацеленные как на создателей дипфейкового порно, так и на социальные платформы и порносайты, которые его распространяют. Но пока мы ждем, что законодатели и крупные технологические компании разберутся с этим беспорядком, что нам делать?

Для начала мы можем сосредоточиться на защите наших детей от порнографии, давая им инструменты для навигации по нашему порнофицированному миру. И мы можем открыто и честно говорить с друзьями, семьей и знакомыми о том, как порнография отравляет наше общество.

Перевод: Суслова А. для Фонда «Безопасный дом».

Источник: https://exoduscry.com/articles/taylor-swift-deepfake/

Примечание: Сексуализированное насилие с использованием изображений (СНИИ) очень распространено и является формой гендерного насилия. По некоторым данным с ним сталкивается каждая третья женщина. Негативные последствия такого опыта могут повышать уязвимость пострадавших перед другими формами эксплуатации. А продажа такого контента может превращать это преступление в коммерческую секс-эксплуатацию и секс-траффикинг. Развитие и распространение технологий, позволяющих создавать дипфейк-порно, дает преступникам практически неограниченные возможности подвергнуть насилию и эксплуатации еще большее количество женщин, ведь для него даже не нужно никаких реальных интимных фото или видео, их с легкостью создаст ИИ.


Источник: exoduscry.com

Комментарии: