HappyHorse 1.0 est disponibleEssayer maintenant
omni-moderation-latest : Guide de moderation de texte et d'image
guide

omni-moderation-latest : Guide de moderation de texte et d'image

EvoLink Team
EvoLink Team
Product Team
29 avril 2026
9 min de lecture
omni-moderation-latest est le modele de moderation multimodal d'OpenAI destine a detecter les contenus nuisibles dans le texte et les images. Il est important car il a fait passer la moderation OpenAI au-dela des verifications textuelles uniquement, offrant aux developpeurs une seule famille de modeles pour les workflows de securite texte et image.

En resume :

  • OpenAI a lance omni-moderation-latest le 26 septembre 2024.
  • Il est base sur GPT-4o et prend en charge les entrees texte et image.
  • Selon OpenAI, le modele est gratuit via l'API Moderation.
  • La prise en charge des images est specifique a certaines categories ; toutes les categories de moderation ne fonctionnent donc pas pour les entrees image uniquement.
  • Les equipes souhaitant un endpoint de moderation compatible OpenAI dans les workflows EvoLink peuvent egalement evaluer EvoLink Moderation 1.0.

Ce guide explique ce que fait le modele, en quoi il differe des anciens modeles de moderation textuelle, et comment aborder son implementation en production.

Qu'est-ce que omni-moderation-latest ?

omni-moderation-latest est le modele de moderation d'OpenAI concu pour identifier les contenus potentiellement nuisibles. La page du modele OpenAI le decrit comme un modele de moderation gratuit acceptant les entrees texte et image et renvoyant une sortie texte via le endpoint Moderation.

Sources :

Le modele n'est ni un generateur d'images generaliste, ni un modele de chat. C'est un classifieur. Vous envoyez le contenu utilisateur a l'API Moderation, et la reponse vous indique quelles categories peuvent etre presentes et avec quelle intensite le modele les a evaluees.

Pourquoi OpenAI a remplace la moderation textuelle par la moderation multimodale

Avant omni-moderation-latest, de nombreux systemes de moderation traitaient le texte et les images comme des problemes distincts. Cela creait des workflows de production peu pratiques :
  • un appel de moderation pour un commentaire utilisateur
  • un autre service pour les images telechargees
  • des definitions de categories separees
  • des formats de reponse differents
  • des seuils et des regles d'examen distincts

L'annonce d'OpenAI de septembre 2024 a positionne le nouveau modele comme un moyen d'evaluer le texte et les images nuisibles avec un classifieur multimodal plus performant. OpenAI a egalement indique que le modele ameliorait les performances, notamment pour les contenus non anglophones.

Le resultat pratique est simple : les applications acceptant a la fois des legendes et des images peuvent utiliser un seul modele de moderation au lieu d'assembler un classifieur textuel et un service de securite d'images separe.

Quels types d'entrees omni-moderation-latest prend-il en charge ?

La page du modele OpenAI indique :

ModalitePrise en charge
TexteEntree et sortie
ImageEntree uniquement
AudioNon pris en charge
VideoNon prise en charge
Cela signifie que omni-moderation-latest peut evaluer du texte, des images, ou des requetes texte-plus-image, mais il ne modere pas directement l'audio ou la video.

Pour les equipes qui developpent des workflows de contenu genere par les utilisateurs, cela correspond bien aux cas courants :

  • commentaires et messages de chat
  • texte de profil
  • images telechargees
  • annonces avec legendes et photos
  • texte ou images generes par IA avant publication

Quelles categories fonctionnent pour les images ?

C'est le detail que beaucoup d'equipes negligent.

L'annonce d'OpenAI indique que la classification multimodale des contenus nuisibles etait prise en charge pour les categories suivantes liees aux images au lancement :

  • violence et violence/graphic
  • automutilation, self-harm/intent et self-harm/instructions
  • contenu sexuel, mais pas sexual/minors

OpenAI precise egalement que les categories restantes etaient uniquement textuelles au moment de l'annonce, avec des plans d'extension de la prise en charge multimodale.

En pratique, cela signifie que la moderation d'images est utile, mais ce n'est pas la meme chose que de dire que chaque categorie de moderation textuelle fonctionne aussi bien pour les images. Si votre produit doit detecter des symboles haineux dans des memes, du texte enfreignant les politiques integre dans des images, des problemes de brand safety, des superpositions de spam ou des regles visuelles specifiques a une marketplace, vous aurez peut-etre besoin de verifications supplementaires.

omni-moderation-latest vs text-moderation-latest

Domainetext-moderation-latestomni-moderation-latest
Entree principaleTexteTexte et images
Moderation d'imagesPas le cas d'usage principalPrise en charge pour certaines categories
Categories de contenus nuisibles plus recentesPlus limiteesAjoute illicit et illicit/violent comme categories textuelles uniquement, selon l'annonce d'OpenAI
Performances multilinguesBaseline plus ancienneOpenAI a signale de meilleures performances multilingues dans son evaluation interne
Meilleure adequationIntegrations textuelles existantesWorkflows de moderation texte et image plus recents
Si vous utilisez deja l'API OpenAI Moderation, la principale raison d'evaluer omni-moderation-latest est la prise en charge elargie des entrees et le comportement des nouvelles categories.

Comment utiliser omni-moderation-latest

Un appel de moderation textuelle basique ressemble a ceci :

from openai import OpenAI

client = OpenAI()

response = client.moderations.create(
    model="omni-moderation-latest",
    input="User-submitted text goes here"
)

result = response.results[0]

if result.flagged:
    print(result.categories)
    print(result.category_scores)

Pour la moderation d'images, utilisez une entree image :

from openai import OpenAI

client = OpenAI()

response = client.moderations.create(
    model="omni-moderation-latest",
    input=[
        {
            "type": "image_url",
            "image_url": {
                "url": "https://example.com/user-upload.jpg"
            }
        }
    ]
)

result = response.results[0]
print(result.flagged)
print(result.category_scores)

Pour la moderation texte-plus-image :

response = client.moderations.create(
    model="omni-moderation-latest",
    input=[
        {"type": "text", "text": "Caption or user message"},
        {
            "type": "image_url",
            "image_url": {
                "url": "https://example.com/user-upload.jpg"
            }
        }
    ]
)

Testez toujours ces exemples avec la documentation actuelle de l'API OpenAI avant la mise en production, car les formats de requete du SDK peuvent evoluer au fil du temps.

Patterns de production pour les workflows de moderation

L'appel API n'est qu'une partie du systeme de moderation. En production, la question la plus importante est ce que votre application fait du resultat.

Un pattern courant est :

risque faible    -> autoriser
risque moyen     -> mettre en file d'attente pour examen humain
risque eleve     -> bloquer ou exiger un appel

Avec la moderation OpenAI, vous construisez generalement ce mapping a partir des flags de categorie et des scores de categorie. Votre application decide quelles categories sont des blocages stricts, quelles categories necessitent un examen, et quels scores ne sont que des signaux.

Vous devriez egalement suivre :

  • les faux positifs
  • les violations manquees signalees par les utilisateurs
  • les taux de declenchement par categorie
  • la latence et les erreurs API
  • les decisions de moderation par surface produit
  • les taux de reclassement par les examinateurs

C'est la que les equipes decouvrent souvent que "utiliser un modele de moderation" et "operer un workflow de moderation" sont des taches differentes.

Quand omni-moderation-latest est un bon choix

Utilisez omni-moderation-latest quand :
  • vous utilisez deja OpenAI directement
  • votre application a besoin des categories de moderation documentees par OpenAI
  • votre workflow est principalement textuel avec quelques besoins de moderation d'images
  • vous etes a l'aise pour implementer votre propre logique de seuils et d'examen
  • vous souhaitez un modele de moderation gratuit dans l'ecosysteme de l'API OpenAI

Pour de nombreux produits natifs OpenAI, c'est un excellent point de depart.

Quand envisager une alternative compatible OpenAI

Une alternative n'a pas besoin de battre le "gratuit" sur le prix brut du endpoint. Elle doit reduire la complexite operationnelle.

EvoLink Moderation 1.0 est une API de moderation de contenu compatible OpenAI pour les equipes qui souhaitent integrer la moderation dans le workflow de l'API EvoLink. Elle utilise model: evolink-moderation-1.0, prend en charge les entrees texte seul, image seule et texte-plus-image, et renvoie les champs de moderation standard ainsi qu'un objet evolink_summary.
Le champ evolink_summary est utile car il fournit a votre application un resume de decision direct :
  • risk_level
  • flagged
  • violations
  • max_score
  • max_category

Cela facilite l'implementation de la logique autoriser / examiner / bloquer sans avoir a ecrire autant de code d'agregation des scores par categorie.

Pour le schema de requete, les exemples et les limites d'entree, consultez la documentation de l'API EvoLink Moderation.
Choisissez ceciSi votre priorite est...
OpenAI omni-moderation-latestUne moderation gratuite dans un workflow direct avec l'API OpenAI
EvoLink Moderation 1.0Une moderation compatible OpenAI dans EvoLink avec prise en charge texte-plus-image et un resume de risque simplifie
Moderation multicoucheApplication de politiques personnalisees, regles de marque, appels, examen humain ou workflows de conformite au-dela d'une seule API

Il n'y a pas de gagnant universel. Le modele d'OpenAI convient parfaitement aux applications natives OpenAI. EvoLink est un excellent choix lorsque votre equipe souhaite que la couche de moderation coexiste avec d'autres appels de l'API EvoLink et renvoie un resume de risque oriente production.

FAQ

omni-moderation-latest est-il gratuit ?

OpenAI decrit les modeles de moderation comme des modeles gratuits, et l'annonce d'OpenAI indique que le nouveau modele de moderation est gratuit via l'API Moderation. Les limites de debit dependent du niveau d'utilisation.

omni-moderation-latest prend-il en charge les images ?

Oui. La page du modele OpenAI liste l'image comme modalite d'entree. Cependant, l'annonce d'OpenAI precise que la prise en charge des images est specifique a certaines categories ; toutes les categories de moderation ne s'appliquent donc pas aux entrees image.

omni-moderation-latest prend-il en charge la video ou l'audio ?

Non. La page du modele OpenAI indique que l'audio et la video ne sont pas pris en charge pour ce modele.

Non. EvoLink Moderation 1.0 est un service de moderation EvoLink distinct avec une interface API compatible OpenAI. Il est concu pour les equipes souhaitant une moderation texte et image dans les workflows EvoLink.

Pas automatiquement. Si le endpoint de moderation gratuit d'OpenAI correspond a votre workflow, utilisez-le. Evaluez EvoLink si vous souhaitez un endpoint de moderation compatible OpenAI avec evolink_summary.risk_level, une tarification forfaitaire par appel et une integration avec les autres API EvoLink.

Guides de moderation associes

Explore EvoLink Moderation 1.0

Prêt à réduire vos coûts IA de 89 % ?

Commencez avec EvoLink dès aujourd'hui et découvrez la puissance du routage intelligent des API.