«Неэтичные» технологии: как женщине защитить себя от цифровизации |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-07-13 20:30 Приложение Deep Nude, позволявшее раздевать женщин, было закрыто через несколько дней после запуска. Сегодня технологии могут легко и быстро добраться до рядового пользователя смартфона и стать инструментом шантажа и манипуляций Приложение для смартфона Deep Nude, появившееся в открытом доступе 23 июня, было закрыто разработчиками сразу через несколько дней из-за судебных исков в адрес разработчиков. Оно позволяло снять одежду с женщины на фото и успело разойтись в таком огромном количестве, что приложение мгновенно стало вирусным. Чтобы создать программу, надо было обучить нейросети редактированию фотографий так, чтобы они автоматически «оголяли» части тела, скрытые под одеждой. Основой для фальшивок стала база данных, содержащая фото более чем 10 000 женщин. Неэтичные приложения, подобные этим, появляются регулярно, но, встречая сопротивление, сворачиваются, иногда возвращаясь под другим названием. На основе каких технологий они создаются? Каковы мотивы их создателей и как можно от них защититься? Фото- и видеофальшивки Бывший израильский онлайн-сервис Deep Nude — из серии правдоподобных фальсификаций (Deep Fake). Эта технология названа журналистами и IT-аналитиками одним из наиболее опасных изобретений последних лет. Термин произошел от английских слов «deep learning» («глубокое обучение») и «fake» («подделка») и означает получение изображения человека с помощью искусственного интеллекта. Используется для объединения и наложения существующих изображений на видео или фото. Так создаются фото и ролики с людьми, которые в них не участвовали, их действия и слова им не принадлежат. Отличить видео-deepfake от ролика, соответствующего действительности, сложно не только неискушенному зрителю, но даже беспристрастной машине, то есть компьютеру. Поэтому сказать, что человек оказывается в неловком положении, ничего не сказать. Любая женщина может быть дискредитирована, начиная от звезд и политиков и заканчивая обычной школьницей, которая выставляет в сеть безобидные селфи с подругами. Фейковые порноролики — это не просто аморальное издевательство над женщиной. Это еще и угроза реального тюремного срока, если не удастся доказать, что в видео снималась не она. А уж такие технологии в руках преступников — обширное поле для того, чтобы подменить на видео себя и соучастников изображениями невиновных людей. При этом жертвой deepfake может стать любой. По статистике, в 2015–2016 годах пользователи загрузили в Google Photos не менее 24 млрд селфи. Злоумышленникам достаточно найти эти фотографии и вставить их в фейковые порноматериалы. Благие намерения Несколько лет назад Google создала библиотеку TensorFlow для обучения нейронной сети человеческому качеству восприятия. Система достаточно быстро обучалась при помощи роликов на Youtube и фотографий в Google. Именно это детище Google, объединившись с библиотекой Keras и открытыми алгоритмами машинного обучения, стало источником для создания первого deepfake. Хотя подобные алгоритмы были нужны ограниченному количеству компаний и научных учреждений. Ядерщики, например, так прогнозируют поведение частиц, а врачи — улучшают качество изображений. Жертвы «фейкоделов» — в первую очередь знаменитости и политики, влиятельные люди. От поддельных порновидео пострадали многие звезды: Галь Гадот, Скарлетт Йоханссон, Мэйси Уильямс, Тейлор Свифт, Мила Кунис, Эмма Уотсон. Очевидно, что наиболее уязвимые сферы — те, в которых сосредоточены деньги и власть. Могут пострадать не только шоу-бизнес и политика, но и IT, финансы, автомобилестроение, продукты питания. И именно сейчас, как никогда раньше, такие технологии гораздо легче и быстрее могут добраться до рядового пользователя смартфона и стать инструментом шантажа и манипуляций. Создатель приложения Deep Nude в интервью американскому интернет-изданию Vice рассказал, что создал «раздевающую» программу забавы ради и из любопытства, пытаясь создать виртуальные «рентгеновские очки», о которых все мечтали в 1970-х годах. Не в последнюю очередь он планировал получить из этого выгоду. И это стало возможным благодаря свободному коду Pix2Pix, предназначенному не для частных целей, но уже активно использующемуся не только в исследованиях. Защищая себя, Alberto (псевдоним разработчика «раздевающего приложения») утверждает, что создание таких эффектов возможно даже в обычном Photoshop, не учитывая, что скорость и доступность совсем не те. «Мир пока не готов к Deep Nude» — отмечает он. Каким же в его представлении должен быть мир, чтобы без проблем принять подобные приложения? Вот еще некоторые из них. Неоднозначные отзывы вызвало появившееся два года назад приложение MakeApp, которое позволяло удалить макияж с лица женщины на фото, дополнительно чуть состаривая его. The League — платный аналог Tinder для тех, кто причислен к элите. Зарегистрироваться может только та женщина, данные которой устроят программистов-модераторов: образование, карьерные достижения, связи в соцсетях, поставленные цели, качество загруженных снимков. Bang With Friends, которое обвинили в откровенности и аморальности, сейчас больше известно как Down. С помощью приложения можно анонимно отметить в Facebook друзей, с кем есть желание познакомиться поближе. Если с обеих сторон будут аналогичные заявки, они получат уведомление об этом. Приложение Secret было создано для распространения секретов и сплетен. После регистрации человек мог прочитать секреты людей из его телефонной книги. Но автор секрета оставался анонимным, можно было только предполагать, кто именно пишет. Закрыто в 2015 году, но есть новые задумки разработчиков. Как женщине защитить себя? Главный технолог израильской компании защиты данных ESET Амир Карми уверен, что защититься от подобных злоупотреблений довольно сложно. Можно лишь подстраховать себя, и это доступно каждой женщине. Личные фото, особенно в купальнике, делать достоянием только узкого круга друзей. Именно подобные снимки становятся основой наиболее правдоподобных фальшивок. Если женщина полностью одета — фейки получаются неестественными. От deepfakes должен защищать закон. В настоящее время правоприменительная практика в зарубежных странах исходит из того, что данное деяние может квалифицироваться как клевета, если будет доказано, что личность использовалась со злым умыслом. В Великобритании авторов таких роликов можно судить по закону о порномести, а также за кражу персональных данных и киберпреследование. В США в июле 2019 года был внесен законопроект «DEEPFAKES Accountability Act», который предусматривает уголовную ответственность за распространение фейковых фотографий и видео, сделанных с помощью нейронных сетей или компьютерных программ и порочащих то или иное лицо. В России в зависимости от состава преступления лицо может понести ответственность по ст. 128.1 «Клевета» и ст. 242 «Незаконные изготовление и оборот порнографических материалов или предметов» Уголовного кодекса Российской Федерации. Однако какая-то внятная практика по таким делам в России еще не сложилось. Технологии на страже Военные DARPA (Defense Advanced Research Projects Agency) инициировали и финансируют проект, который собирает ведущих мировых экспертов в области цифровой экспертизы. Они должны создать технологии, способные автоматически находить и разоблачать поддельные видео. Стоит также сказать о платформе Gfycat, создающей GIF-изображения: она решила бороться с поддельными видеороликами с помощью специального ПО. Но результата пока нет как в первом, так и во втором случае. К проблеме подключились и ученые. Разработчики Adobe и Мэрилендского университета объединились для создания нейросети, распознающей манипуляции на фото, но видео пока им неподвластно. Также исследователи из Университета в Олбани предлагают внимательнее присматриваться к непроизвольным физиологическим действиям, которые часто упускаются из виду. Например, обратить внимание, моргает ли человек на видео. Синтезированное лицо практически не моргает, так как снимки с закрытыми глазами в сети обычно не публикуются и, соответственно, не попадают в обучающую базу. Очевидно, что решение еще не найдено, и женщине надо быть предельно аккуратной. Начинается большая битва создателей и разоблачителей фейков. Правда, она больше похожа на игру в кошки-мышки. И проходит она, затрагивая чаще всего именно личность женщины. Исход этой борьбы пока неизвестен, но слабый пол вполне может выйти победителем. Источник: www.forbes.ru Комментарии: |
|