На мир надвигается эпидемия фейкового видеоконтента — Axios |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-10-04 22:04 Сандро Боттичелли. Клевета. 1495 Словом дипфейк (англ. deepfake) называется методика создания реалистичного видеоконтента путем совмещения воедино нескольких видеопотоков компьютерной системой, использующей алгоритмы искусственного интеллекта. Эксперты Axios предсказывают скорое появление огромного количества фейковых порнофильмов и другого рода дискредитирующих роликов с известными личностями или просто несчастными людьми, ставшими объектом мести или травли недоброжелателей. Разные технологии создания «дипфейков», использующие программное обеспечение на основе машинного обучения, очень быстро совершенствуются, а соцсети не разработали еще четкий и единый план действий по выявлению такого контента. Facebook, Twitter, YouTube, TikTok и другие платформы уже подверглись критике и даже санкциям за распространение дезинформации по темам: COVID-19, Выборы, Межнациональная рознь и другим, однако надвигающаяся напасть сметёт несовершенные и медленные механизмы внутренней цензуры, говорится в статье. «Мы должны запретить себе фразу: „Я не хочу быть высшим арбитром и определять, что является истиной“, это всё чепуха!», — сказал профессор Калифорнийского университета в Беркли, эксперт по дипфейкам Хани Фарид во время виртуальной конференции Axios. По мнению других экспертов, проблема состоит также в том, что «запретить саму технологию и весь создаваемый таким образом медиаконтент просто нельзя, хотя бы потому, что ее использует Голливуд». Эксперты также обратили внимание на активную политизацию этой темы. С одной стороны, политики сами становятся уязвимы перед дипфейками по мере развития этой технологии. С другой стороны, уже само ее существование и все большее беспокойство общества по поводу этой технологии позволяет политикам отвергать разного рода обвинения, голословно называя их порождением технологии deepfake.
Источник: rossaprimavera.ru Комментарии: |
|