OpenAI снизила предвзятость и повысила безопасность DALL-E 2

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Некоммерческая организация OpenAI заявила о снижении предвзятости и улучшении безопасности в последнем обновлении генератора изображений DALL-E 2.

По словам представителей организации, новая методика позволяет алгоритму генерировать изображения людей, более точно отражающие разнообразие населения мира.

«Этот метод применяется на системном уровне, когда DALL-E выдается подсказка с описанием человека без указания расы или пола, например “пожарный”», — говорится в пресс-релизе.

В результате тестирования новой методики пользователи в 12 раз чаще говорили, что изображения DALL-E включали людей разного происхождения, заявили в компании.

«Мы планируем улучшить эту технику с течением времени, поскольку мы собираем больше данных и отзывов», — добавили в OpenAI.

Организация запустила предварительную версию DALL-E 2 для ограниченного числа людей в апреле 2022 года. Разработчики считают, что это позволило им лучше понять возможности и ограничения технологии и улучшить системы безопасности.

По словам OpenAI, за время исследования они предприняли другие шаги для улучшения генератора, в том числе:

  • свели к минимуму риска неправомерного использования DALL-E для создания дипфейков;
  • блокировали подсказки и загружаемые изображения, нарушающих политику в отношении контента;
  • усовершенствовали системы защиты от неправомерного использования.

В OpenAI заявили, что благодаря этим изменениям они смогут открыть алгоритм для большего числа пользователей.

«Расширение доступа — важная часть нашего ответственного развертывания систем ИИ, поскольку оно позволяет нам больше узнать об их использовании в реальных условиях и продолжить совершенствовать наши системы безопасности», — отметили разработчики.

Напомним, в июле исследователи выяснили, что пользователи не отличают изображения, созданные нейросетью и человеком.

В январе OpenAI выпустила новую версию языковой модели GPT-3, которая производит меньше оскорбительных выражений, дезинформации и ошибок в целом.


Источник: news.myseldon.com

Комментарии: