OpenAI publie un modèle d'inférence de sécurité open source : gpt-oss-safeguard Utilisé spécifiquement pour la révision de contenu Version du modèle : gpt-oss-safeguard-120B gpt-oss-safeguard-20B Contrairement aux algorithmes de modération de contenu traditionnels « boîte noire » : gpt-oss-safeguard utilise le raisonnement plutôt que la mémoire, lisant directement vos politiques de sécurité et effectuant un examen du contenu en fonction de ces politiques lors du raisonnement. Aucun apprentissage requis... Cela signifie que la sécurité du contenu évolue au-delà de l'apprentissage passif des règles. Entrer dans une nouvelle phase de « compréhension proactive des règles » signifier: - La politique n'a pas besoin d'être réentraînée ; seul le texte d'entrée doit être modifié. - Le modèle peut afficher son propre processus de raisonnement, expliquant pourquoi il a porté ce jugement. - Différentes politiques peuvent être personnalisées pour différents produits et différents scénarios. (Nouveau) - Différentes politiques peuvent être personnalisées en fonction des produits et des scénarios.
Les évaluations de performance montrent que gpt-oss-safeguard surpasse GPT-5-thxiaohu.ai/c/xiaohu-ai/op…les gpt-oss en termes de précision lors de la mise en œuvre simultanée de plusieurs politiques. Détails:
