OpenAI запускает открытые модели безопасности “gpt-oss-safeguard”

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-11-01 12:40

ИИ теория

Искусственный интеллект не только генерирует контент, но и начинает определять, должен ли этот контент быть сгенерирован. То, что до недавнего времени казалось второстепенной функцией, сегодня становится центральной необходимостью: контролировать, что производится, как распространяется и по каким критериям. В этом контексте OpenAI только что сделала важный шаг, открыв доступ к своим новым моделям рассуждений для классификации безопасности: gpt-oss-safeguard.

Это модели с открытым исходным кодом, предназначенные для ранжирования контента по индивидуальным критериям безопасности в соответствии с политикой использования каждой платформы или разработчика. OpenAI выпустила две версии: одну со 120 миллиардами параметров и другую с 20 миллиардами, обе доступны под лицензией Apache 2.0, что позволяет свободно использовать их и интегрировать в существующие системы без коммерческих ограничений.

Главное новшество этих моделей не только в том, что они классифицируют, но и в том, как они это делают. Вместо того, чтобы просто выносить двоичный вердикт (“разрешено” или “запрещено”), gpt-oss-safeguard шаг за шагом объясняют свои доводы. Они используют методы «цепочки мыслей», которые позволяют понять, почему контент был помечен в соответствии с определенной политикой, и упрощают изменение этой политики без необходимости переподготовки модели. Эта модульность особенно ценна в условиях, когда стандарты быстро меняются или различаются в разных сообществах.

Возможные варианты использования широки. Форум видеоигр может настроить модель для обнаружения ловушек или автоматических сценариев, в то время как сайт с обзорами может использовать ее для выявления ложных отзывов. Социальные платформы, образовательные системы, торговые площадки или технические форумы могут адаптировать логику модели к вашим конкретным потребностям, включив ее в качестве уровня аргументации в свою инфраструктуру модерации.


Источник: andreyex.ru

Комментарии: