Вы будете голыми и вам будет стыдно: темные стороны нейросетей

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект,машинное обучение,дата-майнинг,нейросети — список модных терминов можно продолжать довольно долго. Но что за опасности появились вместе с этими явлениями,и какова их темная сторона? Вот лишь несколько примеров,которые станут серьезными поводами для беспокойства.

Любой инструмент можно использовать во зло — мощные нейросетевые алгоритмы обработки мультимедийных данных не исключение. Не так давно в сети появился новый термин: DeepFake. Это одновременно и отсылка к слову «глубокий», часто употребляемому в названиях технологий которые связаны с искусственным интеллектом, и при этом просто «фальшивка». Данный термин применяется к невероятно реалистичным видеозаписям, фотографиям и звуковым файлам, модифицированным или полностью созданным с помощью нейросетей.

Голос

В качестве примера можно вспомнить несколько нашумевших проектов. С голосом работает продукт стартапа Modulate. Их программный комплекс способен практически на лету преобразовывать речь человека с помощью десятков различных фильтров. Можно сделать женский голос из мужского, повысить возраст или даже сменить расу говорящего. Процесс полностью автоматизирован и от пользователя требуется только выбрать желаемые предустановки. Существующие демонстрации технологии не поражают воображение, но ее совершенствование лишь вопрос времени. Разработчики не раскрыли всех возможностей своего детища, однако совершенно точно распознавание личности по голосу больше не считается надежным.

Опасность заключается в том, что мы слишком уверенно опираемся на звук голоса человека при разговоре с ним без визуального контакта. Можно ли теперь быть уверенным, что это именно твой друг звонит с незнакомого номера и просит о помощи? Чье это голосовое сообщение на самом деле в чате? Я сам позвонил во время корпоратива в нетрезвом состоянии и отдал опрометчивые распоряжения, либо кто-то сделал это за меня? Команда Modulate описывает проект, как новое слово в персонализации своего онлайн-образа — для игр, ролевых чатов или условно анонимного общения. Однако попадание в руки злоумышленников этого программного комплекса или разработка аналогичного — вопрос времени.

Внешность

Довольно долгое время ретушь и редактирование видеоряда были трудоемкими и технически сложными процессами, требующими профессионализма и значительных ресурсов. Однако 2019 год ознаменовался целой волной юмористических роликов, где одних звезд заменяют другие. Помните «Последний герой боевика», где герой Шварценеггера говорит, что в «Терминаторе» снимался не он, а Сталлоне? Так вот пожалуйста, фрагмент культового боевика:

Подобных манипуляций проведено огромное количество, но наиболее циничным был перенос Илона Маска в ленту «Космическая одиссея». Эксцентричный бизнесмен не раз заявлял, что опасается восстания искусственного интеллекта, так что появление его образа с помощью технологий ИИ в фильме, где героя компьютерный мозг не пускает обратно на корабль, по меньшей мере иронично.

Пока что создатели DeepFake-видео не обладают технологиями достоверной подмены голоса, да и лица не всегда «ложатся» ровно. Однако общедоступность подобных программных продуктов может приводить к неприятным инцидентам. По сути, чтобы заполучить на человека компромат, злоумышленнику больше не нужно быть удачливым детективом на полставки. Пара десятков фотографий с разных ракурсов, несколько часов работы за компьютером и вуаля: вы занимались сексом с незнакомцами, гуляли по торговому центру в чем мать родила или даже совершали преступление. Причем раздевать людей нейросети уже научились автоматически.

Доступность и уровень технологий

Технически, чтобы провернуть такие манипуляции с видео или фото необходимы подходящие пакеты программ, правильное обучение алгоритмов и не самый слабый компьютер. В сети есть несколько различных библиотек ПО, распространяемых свободно, а также руководства к ним. Очевидно, что бесплатные решения пока что не обеспечивают идеального качества результата, но они уже позволяют довольно многое. При определенных ракурсах на видео подмененные лица выглядят более чем реалистично, а если игра будет стоить свеч, злоумышленник всегда может просто потратить больше времени на сбор подходящего материала (как исходного, так и видео), а также более тщательное обучение искусственного интеллекта.

Алгоритм StyleGAN создает лица людей. Они невероятно реалистичны, однако ни одного из них в реальности не существует.
Алгоритм StyleGAN создает лица людей. Они невероятно реалистичны, однако ни одного из них в реальности не существует.

Профессиональные продукты на основе подобных технологий уже широко используются: большинство популярных видеоредакторов умеют удалять из кадра ненужные объекты даже без применения цветового ключа. Во флагманских смартфонах предустановлены функции украшения лица или даже тела человека. А о том, каким будет следующее поколение нейросетей для обработки изображений можно судить по тому, как уже сейчас искусственный интеллект способен обрабатывать фото. Программное обеспечение для работы со статичными образами всегда опережало видеоредакторы, так что неудивительно, насколько реалистичны лица, созданные нейросетью StyleGAN.

Мы все умрем?

Киберпанк стоит на пороге. Не за горами времена, когда наша личность будет подделываться в считанные часы или даже минуты. Стоит ли бояться этого? Несомненно, необходимо, как минимум, опасаться. Можно ли избежать этого будущего? Нет. Остается только предпринимать меры предосторожности. Например, до появления автомобилей никто не задумывался о правилах дорожного движения. Сейчас происходит тоже самое.

Еще более пугающая технология — восстановление внешности по одному лишь голосу. В каждой группе из трех изображений: первое — фотография человека, второе — восстановление вида анфас из первого фото, третье — образ, созданный на основе голоса.
Еще более пугающая технология — восстановление внешности по одному лишь голосу. В каждой группе из трех изображений: первое — фотография человека, второе — восстановление вида анфас из первого фото, третье — образ, созданный на основе голоса.

Чтобы усложнить злоумышленникам задачу, не стоит полагаться только на биометрическую аутентификацию. Совсем скоро научатся дешево подделывать даже отпечатки пальцев (или просто красть их), а голос и лицо практически скомпрометированы. Старые добрые пароли по?прежнему самый надежный способ защитить информацию, пусть и не всегда удобный. Кроме того, следует с осторожностью размещать свои фотографии на общедоступных сайтах, в соцсетях, а также отправлять голосовые сообщения в массовые чаты. Помимо обучения нейросетей на вашем материале не исключен вариант банального монтажа с их использованием.

Ещё больше по темам


Источник: www.popmech.ru

Комментарии: