OpenAI разработала, но пока не использует технологии маркировки ИИ-контента

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В компании работают над способами помечать контент, который создают генеративные сети. Уже проверяли вариант с «водяными знаками» в тексте: он точный, почти со 100 % вероятностью определяет происхождение текста. Но проверку легко обмануть: достаточно переписать текст в другой нейросети или дать ИИ определённый промпт.

В OpenAI также исследуют возможность включать в контент из нейронок метаданные: они криптографически подписаны, подделать или убрать их не получится. Такой метод уже ограниченно применяют для маркировки. Например, в изображения, сгенерированные DALL-E, уже добавляются C2PA-метаданные о происхождении картинки.

А вот с текстами пока ситуация буксует. Как минимум 30 % пользователей продуктов OpenAI готовы от них отказаться, если контент будет помечен как сгенерированный ИИ. Не получится у них выдавать нейротексты за собственные :(. Официально OpenAI волнуется о людях, которые используют ИИ для перевода писем на незнакомые языки. Плашка в духе «Текст сгенерирован нейросетью» может повлиять на отношение к таким людям и отобрать у них удобный и рабочий способ коммуникации.

Забавно, что OpenAI в этом случае буквально решает проблему, к созданию которой сама приложила руку. Не будь генеративные сети так доступны и мощны, не нужно было бы тратить ресурсы на определение фейков и ИИ-рефератов.


Источник: wylsa.com

Комментарии: