OpenAI запускает открытые модели безопасности “gpt-oss-safeguard” |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-11-01 12:40 Искусственный интеллект не только генерирует контент, но и начинает определять, должен ли этот контент быть сгенерирован. То, что до недавнего времени казалось второстепенной функцией, сегодня становится центральной необходимостью: контролировать, что производится, как распространяется и по каким критериям. В этом контексте OpenAI только что сделала важный шаг, открыв доступ к своим новым моделям рассуждений для классификации безопасности: gpt-oss-safeguard. Это модели с открытым исходным кодом, предназначенные для ранжирования контента по индивидуальным критериям безопасности в соответствии с политикой использования каждой платформы или разработчика. OpenAI выпустила две версии: одну со 120 миллиардами параметров и другую с 20 миллиардами, обе доступны под лицензией Apache 2.0, что позволяет свободно использовать их и интегрировать в существующие системы без коммерческих ограничений. Главное новшество этих моделей не только в том, что они классифицируют, но и в том, как они это делают. Вместо того, чтобы просто выносить двоичный вердикт (“разрешено” или “запрещено”), gpt-oss-safeguard шаг за шагом объясняют свои доводы. Они используют методы «цепочки мыслей», которые позволяют понять, почему контент был помечен в соответствии с определенной политикой, и упрощают изменение этой политики без необходимости переподготовки модели. Эта модульность особенно ценна в условиях, когда стандарты быстро меняются или различаются в разных сообществах. Возможные варианты использования широки. Форум видеоигр может настроить модель для обнаружения ловушек или автоматических сценариев, в то время как сайт с обзорами может использовать ее для выявления ложных отзывов. Социальные платформы, образовательные системы, торговые площадки или технические форумы могут адаптировать логику модели к вашим конкретным потребностям, включив ее в качестве уровня аргументации в свою инфраструктуру модерации. Источник: andreyex.ru Комментарии: |
|