Каждый второй россиянин столкнется с дипфейк-атакой до конца 2025 года |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-27 12:00 Часть 1. Раньше главной проблемой в сети были фейковые отзывы. Помните, как всё начиналось? 9 из 10 людей читали их перед покупкой. 67% из нас меняли своё мнение, доверившись "голосу народа". Маркетологи покупали текстовые комментарии по 10 рублей. Забудьте. Это прошлый век. Сегодня всё изменилось. Доверять "простому народу" в интернете стало смертельно опасно. И речь уже не о деньгах за телефон. "Известия" (май 2025) сообщают: каждый второй россиянин столкнется с дипфейк-атакой до конца 2025 года. Технологии, которые стоили миллионы, теперь "массово доступны" и стали главным оружием мошенников. Этап 1 (Уже здесь): Фейковые видео-"кружки" и голосовые сообщения. Мошенники массово их штампуют. Как отмечает "Лаборатория Касперского", они часто размытые и короткие — это помогает скрыть огрехи ИИ-генерации. Этап 2 (Ближайшее будущее): Дипфейк в реальном времени. Вам звонит "дочь, попавшая в беду" или "друг, просящий в долг" ИХ НАСТОЯЩИМ ГОЛОСОМ. Распознать обман будет почти невозможно. Это не теория. Это уже происходит. МВД в январе предупреждало: мошенники, используя дипфейки и подменные номера, звонят родителям под видом учителей и директоров школ, чтобы украсть их доступы к "Госуслугам". Если раньше "фабрика троллей" должна была нанять 100 человек, чтобы написать 1000 комментариев, то сегодня нейросеть (ИИ) генерирует 1000 "живых" видео-отзывов за час. О том, как эта же технология используется в информационной войне против страны, — в следующей части. Источник: vk.com Комментарии: |
|