В Китае приняли закон, который обязывает помечать дипфейки и запрещает использовать их для фейк-ньюс

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Китайское правительство приняло закон, который запрещает публикацию фейк-ньюс, созданных с использованием искусственного интеллекта и виртуальной реальности. Об этом пишет Reuters со ссылкой на Управление по вопросам киберпространства КНР.

Любые материалы с использованием ИИ или VR должны иметь специальную хорошо различимую пометку, несоблюдение правил может рассматриваться как уголовное преступление. Закон вступит в силу с 1 января 2020 года.

Важную роль в документе играют правила регулирования дипфейков. В Управлении по вопросам киберпространства считают, что эта технология может «поставить под угрозу национальную безопасность, подорвать социальную стабильность и нарушить общественный порядок».

В октябре законы, ограничивающие использование дипфейков, приняли в Калифорнии. Они запрещают публиковать отредактированные видео с кандидатами на выборах за 60 дней до голосования и позволяют жителям штата подать в суд на человека, который вставил их лицо в порнографический ролик.

Дипфейки с каждым днем становятся все качественнее, и порой подделку сложно отличить от оригинала. Например, в конце мая в сети разошлось видео, где якобы глава Facebook Марк Цукерберг рассказывает о своей власти над данными пользователей Instagram. Недавно злоумышленники обманули директора компании на 243 тыс. долларов, сымитировав голос его начальника с помощью искусственного интеллекта, — по мнению экспертов, не за горами тот день, когда для этого начнут использовать видеосвязь.

Еще большую угрозу представляют дипфейк-ролики, которые начали развиваться в конце 2017 года, когда нейросеть научили заменять лица порноактрис на знаменитостей. «Афиша Daily» разбиралась, чем опасно фейк-порно и как оно может сделать из нас медианигилистов.

Однако не всегда дипфейки используют со злым умыслом. Владелец ютьюб-канала Ctrl Shift Face, например, меняет лица актеров в фильмах и сериалах на других людей, заставляя совсем иначе взглянуть на происходящее на экране.


Источник: daily.afisha.ru

Комментарии: