Нейросеть создает фейковые прон-ролики с участием голливудских звёзд |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-12-12 22:39 Пользователь Reddit научил нейросеть создавать фейковые ролики, в которых такие голливудские знаменитости как Галь Гадот и Мэйси Уильямс участвуют в сценах из порно. Автор утверждает, что всё сделано ради науки, но на него уже ополчились порноактрисы: эта нейросеть совсем их труд не уважает. Любители порно и фотожаб со знаменитостями сидят в отдельном уголке на Reddit — в разделе «CelebFakes» собираются те, кто просит и делает для других различные фотожабы, приставляя лица знаменитостей на кадры из фильмов для взрослых. Этот раздел существует давно и оставался бы незаметным (в конце концов, после небольшой обработки в фотошопе даже Дмитрий Медведев может продавать ботинки), если бы не неординарные навыки одного из пользователей. Он вывел на новый уровень понятие «вставить фото знаменитости в порно», приспособив для этого нейросеть. Автора роликов под ником Deepfakes прославило его видео с Галь Гадот. Он наложил её лицо на актрису в сцене из очередного порнофильма и опубликовал в соответствующей теме. Многие удивились детализации и качеству ролика: мимика Чудо-женщины менялась так, будто никакой обработки не было.
Как объясняет Deepfakes, для создания видеозаписи он использовал находящиеся в открытом доступе материалы, всего две программы (Keras и TensorFlow) и собственный алгоритм обработки фото. В его основе лежит алгоритм нейросети, превращающей мордочки домашних котов в морды их диких собратьев и наоборот. Исходники с лицами звёзд Deepfakes также брал в открытом доступе — из фото и роликов со звёздами, множество которых можно найти на YouTube и их страничках в инстаграме. По словам Deepfakes, процесс создания подобных фейковых записей легче, чем кажется. Нейросеть сама отслеживает положение глаз, рта и граней лица актрисы на видео и подгоняет под него фотографии знаменитости. При правильных настройках на создание одного ролика у автора уходит всего несколько часов, и ему не нужно работать над каждым кадром видео — алгоритм обрабатывает сотни фото и видео «цели», создавая достоверный аналог её мимики. Но это работает далеко не с каждой записью.
Так, Deepfakes постарался над порно «с Эммой Уотсон» и создал видео с Тейлор Свифт и Скарлетт Йоханссон. Но больше всего роликов автор посвящает звезде «Игры престолов» Мэйси Уильямс.
Автор отмечает, что несмотря на заметный прогресс в сравнении со многими другими роликами-коллажами, его работы по замене лиц далеки от совершенства. Он может использовать только «удачные» фрагменты, не может создавать записи высокого качества, а контур лица знаменитости иногда находится в еле заметном расплывчатом квадратике, выделяющем его на фоне видео.
Тем не менее знаменитости уже отреагировали на произошедшее. К примеру, с сайта Gfycat была удалена загруженная гифка автора с Галь Гадот, несмотря на то, что в ней не было постельной сцены. Также с различных ресурсов были удалены ролики автора, посвящённые Скарлетт Йоханссон, Обри Плаза и Гадот. Голливудские знаменитости не комментировали старания реддитора, но по поводу его работ высказались порноактрисы. По их словам, то, что кто-то создаёт подобные ролики без разрешения «снимающихся» в них актрис, неправильно.
К тому же подобные видеозаписи объективируют женщин, снявшихся в них, и не уважают их труд.
Нейросеть не в первый раз применяют в порноиндустрии. Летом умельцы с одного сайта запустили сервис, который с помощью нейросети находил порноактрис, похожих на фотографии любых обычных людей. Medialeaks потестил его на фотках Путина и Навального, и теперь ярые поклонники политиков знают, что за видео им стоит посмотреть, если у них внутри накопится всякое. Как бы то ни было, достижения Deepfake в очередной раз подводят общество к вопросу использования опубликованных в интернете личных фото. Мы уже писали, как с помощью только него некоторые злоумышленники находят личные данные человека вплоть до его адреса. Теперь к этому добавились и подобные «доморощенные» ролики. Источник: medialeaks.ru Комментарии: |
|