Дипфейки выводят на чистую воду |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-06-02 11:44 Российские компании начали закупать детекторы дипфейков. Речь о технологиях, которые выявляют поддельные видео, голос и изображения, сгенерированные нейросетями, причем в режиме реального времени. Как пишет РБК, такие инструменты работают в трех десятках проектов. Половина из них — банки. Игорь Бедеров, руководитель компании «Интернет-розыск»: «Средством борьбы здесь является использование машинной логики, которая, помимо тех паттернов, которые видит человек, еще обладает возможностью исследовать принципы работы, свойственные нейросети, то есть может определить технологию, благодаря которой был сгенерирован тот или иной дипфейк. Он делается по определенной методике, и на сегодняшний день нейросети-детекторы акцентируют основное свое развитие именно на том, чтобы определять принцип работы конкретной модели. Мы видим, что в ответах фигурируют типичные популярные массовые продукты для генерации видео или аудио. То есть такие инструменты прямо обозначают, что, скорее всего, была использована следующая нейросеть». Алексей Мунтян, соучредитель Сообщества профессионалов в области приватности: «Я бы не сказал, что это проблема, которая носит какой-то критический социальный характер. Тем более для того, чтобы делать дипфейки в режиме реального времени, нужно существенное количество ресурсов, технологий, которые могут сделать их действительно реалистичными, сходными до степени смешения с оригиналом. Что касается сервисов видеосвязи и банков, которые закупают технологии детекторов дипфейков, учитывая развитие технологий и недорогих решений в этой сфере, вполне возможно, что кредитные организации, образно говоря, готовят сани летом, рассматривая ближайшую перспективу, когда это явление станет массовым. Сюда можно добавить определенный контекст в виде законодательной деятельности, которую активно развивает государство. Оно фактически стимулирует компании к кибервооруженности в отношении мошеннических действий». Источник: vk.com Комментарии: |
|