Чем опасен deepfake |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-05-21 01:57 В 2022 году в тестовом режиме будут запущены технологии по распознанию deepfake. Их внедрение предполагается в браузерах, а также проигрывателях социальных сетей. Что такое deepfake? Дипфейки часто создаются с использованием методов глубинного обучения (метод на базе ИИ), таких как генеративно-состязательные сети (GAN). Технология представлена двумя конкурирующими нейронными сетями, что приводит к изучению информации (к примеру, фотографии) и созданию новых данных на базе первичных характеристик. При помощи deepfake можно легко подделать аудио, фотографию или видео. Этой технологией могут воспользоваться злоумышленники для шантажа руководителя крупной компании или же рядового сотрудника, чью репутацию подорвёт поддельное видео. К примеру, в США был опубликован фейк с бывшим президентом Бараком Обама, оскорбляющим Дональда Трампа. Опасность заключается в том, что видео, созданное программой FakeApp, выглядит «как настоящее». Диапазон использования deepfake огромен — от фейковых новостей до несуществующих квартир на Циане. Как защититься от deepfake? Если видео в высоком разрешении, то вполне реально определить, настоящий перед вами человек или нет. Обращайте внимание на следующие признаки: • неровные движения; • перемена освещения в соседних кадрах; • различия в оттенках кожи; • человек на видео много моргает или не моргает вообще; • плохая синхронизация движения губ с речью; • цифровые артефакты в изображении. Но лучше использовать специальные программы по выявлению дипфейков, работающие по принципу замедления алгоритмов. В результате, качество подделки становится низким и вы сможете понять фейковое видео или нет. Риски использования технологии deepfake реальны и могут навредить во многих отраслях. Денис Кувиков, директор РИЦ «СэйфНэт», отметил, что широкое использование deepfake-видео требует создания более совершенных способов их обнаружения. Для этого разработчики сервисов интеллектуального анализа видео постоянно повышают эффективность алгоритмов, выявляющих технологию для создания фейков. Источник: vk.com Комментарии: |
|