В Китае приняли закон, который обязывает помечать дипфейки и запрещает использовать их для фейк-ньюс |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-12-02 18:00 Китайское правительство приняло закон, который запрещает публикацию фейк-ньюс, созданных с использованием искусственного интеллекта и виртуальной реальности. Об этом пишет Reuters со ссылкой на Управление по вопросам киберпространства КНР. Любые материалы с использованием ИИ или VR должны иметь специальную хорошо различимую пометку, несоблюдение правил может рассматриваться как уголовное преступление. Закон вступит в силу с 1 января 2020 года. Важную роль в документе играют правила регулирования дипфейков. В Управлении по вопросам киберпространства считают, что эта технология может «поставить под угрозу национальную безопасность, подорвать социальную стабильность и нарушить общественный порядок». В октябре законы, ограничивающие использование дипфейков, приняли в Калифорнии. Они запрещают публиковать отредактированные видео с кандидатами на выборах за 60 дней до голосования и позволяют жителям штата подать в суд на человека, который вставил их лицо в порнографический ролик. Дипфейки с каждым днем становятся все качественнее, и порой подделку сложно отличить от оригинала. Например, в конце мая в сети разошлось видео, где якобы глава Facebook Марк Цукерберг рассказывает о своей власти над данными пользователей Instagram. Недавно злоумышленники обманули директора компании на 243 тыс. долларов, сымитировав голос его начальника с помощью искусственного интеллекта, — по мнению экспертов, не за горами тот день, когда для этого начнут использовать видеосвязь. Еще большую угрозу представляют дипфейк-ролики, которые начали развиваться в конце 2017 года, когда нейросеть научили заменять лица порноактрис на знаменитостей. «Афиша Daily» разбиралась, чем опасно фейк-порно и как оно может сделать из нас медианигилистов. Однако не всегда дипфейки используют со злым умыслом. Владелец ютьюб-канала Ctrl Shift Face, например, меняет лица актеров в фильмах и сериалах на других людей, заставляя совсем иначе взглянуть на происходящее на экране. Источник: daily.afisha.ru Комментарии: |
|