Где предел машинному обучению и дипфейкам? |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-06-07 18:00 Просто осознайте, в какое время мы живем. Мы привыкли, что если человек записал обращение на видео, это точно он. А теперь смотрите: вот алгоритм, который позволяет сгенерировать видео с человеком и произвольным текстом. И уже сейчас его довольно сложно отличить от оригинала. Больше не нужно снимать и переснимать видеоролики. Не нужны обращения к сотрудникам и наробу. Больше не нужно под пытками выбивать показания. Ведущие новостей не нужны. В будущем останутся только массажисты и программисты. Источник: zen.yandex.ru Комментарии: |
|