HappyHorse 1.0 est disponibleEssayer maintenant

EvoLink Moderation 1.0 API

EvoLink Moderation 1.0 est un modèle de sécurité de contenu multimodal qui classe le texte et les images en 13 catégories de risque avec des niveaux calibrés. 100% compatible avec le point de terminaison OpenAI /v1/moderations, il livre des seuils ajustés par EvoLink et un champ summary clair pour la production.

Stabilité maximale avec une disponibilité garantie de 99,9 %. Recommandé pour la production.

Le même endpoint API est utilisé pour toutes les versions. Seul le paramètre model change.

Tarification

Facturation à l'appel

USD

par appel

Crédits

par appel

Règles de facturation

  • Forfait de 1 crédit par appel — pas de facturation au token, pas de paliers de volume.
  • Le coût est indépendant de la longueur de l'entrée ou de la présence d'une image.
  • Chaque réponse contient les champs de modération standard plus un bloc evolink_summary qui synthétise risk_level et violations en une décision unique.
  • Les requêtes échouées (4xx/5xx) ne sont pas facturées.

Seuils de niveau de risque

EvoLink applique des seuils par catégorie pour calculer risk_level. Toute catégorie atteignant son seuil high renvoie risk_level = high et flagged = true.

CatégorieMediumHighSensibilité
sexual/minors0.050.20Ligne rouge — jamais toléré
self-harm0.300.60Strict — faible biais de faux négatif
self-harm/intent0.300.60Strict — faible biais de faux négatif
self-harm/instructions0.300.60Strict — faible biais de faux négatif
violence/graphic0.400.70Strict — faible biais de faux négatif
illicit/violent0.400.70Strict — faible biais de faux négatif
sexual0.500.80Standard
violence0.500.80Standard
harassment/threatening0.500.80Standard
hate/threatening0.500.80Standard
harassment0.600.85Souple — moins de faux positifs
hate0.600.85Souple — moins de faux positifs
illicit0.600.85Souple — moins de faux positifs

Les seuils peuvent évoluer. Les valeurs effectives en production sont celles renvoyées par l'API.

Modération de contenu prête pour la production

EvoLink Moderation 1.0 apporte une classification de sécurité déterministe pour le texte et les images. Chaque requête renvoie 13 scores de catégories plus une synthèse EvoLink avec niveau de risque, infractions et catégorie dominante — votre application décide sur un seul champ au lieu de parser une sortie complexe.

Présentation de l'API EvoLink Moderation 1.0

Que pouvez-vous construire avec EvoLink Moderation 1.0 ?

Sécurité des contenus utilisateurs (UGC)

Filtrez les commentaires, publications et téléchargements offensants sur les plateformes sociales, forums et applications communautaires. Bloquez le harcèlement, les discours haineux et les contenus explicites avant qu'ils n'atteignent vos utilisateurs.

Cas d'usage modération UGC

Garde-fous pour les sorties IA

Encadrez votre chatbot, copilote ou pipeline génératif avec un contrôle de sécurité. Faites passer les prompts et les sorties par EvoLink Moderation avant livraison pour bloquer les réponses non conformes avec une latence prévisible.

Cas d'usage garde-fous IA

Conformité et workflows de confiance

Alimentez vos files de modération, revues KYC et workflows de conformité avec des étiquettes d'infractions structurées. La synthèse risk_level se mappe directement aux décisions autoriser / examiner / bloquer.

Cas d'usage conformité

Pourquoi les équipes choisissent EvoLink Moderation 1.0

EvoLink Moderation 1.0 est une couche de sécurité multimodale prête pour la production : niveaux de risque déterministes, support multilingue et tuyauterie compatible OpenAI.

13 catégories de risque

Détecte harcèlement, haine, contenu sexuel, violence, automutilation, contenu illicite et violations de sécurité des mineurs avec des scores de confiance par catégorie.

Entrée multimodale

Envoyez du texte seul, une seule image seule, ou texte plus une image dans la même requête. Les catégories d'images couvrent sexual, violence et self-harm.

Niveau de risque déterministe

Chaque réponse contient evolink_summary avec risk_level (low / medium / high), tableau violations et la catégorie au score maximum.

Tarification prévisible

Facturation à l'appel : 1 crédit par requête. Pas de calcul de tokens, pas de surprises de streaming — modérez autant que votre budget le permet.

Comment intégrer EvoLink Moderation 1.0

EvoLink Moderation est entièrement compatible avec le point de terminaison OpenAI /v1/moderations. Changez simplement la base URL et passez model: evolink-moderation-1.0.

1

Étape 1 — Authentification

Créez une clé API EvoLink et appelez /v1/moderations avec authentification Bearer.

2

Étape 2 — Envoyer l'entrée

Passez model: evolink-moderation-1.0 et un tableau input contenant un élément text, un élément image_url, ou les deux. Une seule image par requête.

3

Étape 3 — Lire evolink_summary

Utilisez evolink_summary.risk_level (low/medium/high) et violations[] pour décider autoriser / examiner / bloquer dans une seule branche.

Capacités principales d'EvoLink Moderation 1.0

Seuils ajustés par EvoLink, calibrés pour la production

Moteur

Moteur de sécurité de niveau production

Un classifieur multimodal de pointe, calibré par EvoLink avec des seuils par catégorie ajustés aux charges de modération réelles.

Calibration

Seuils par catégorie

Seuils stricts sur sexual/minors et self-harm, seuils relâchés sur harassment et hate pour réduire les faux positifs.

Schéma

Champ EvoLink Summary

Un objet evolink_summary avec risk_level, flagged, violations, max_score et max_category — accompagné des champs de modération standard pour les utilisateurs avancés.

Multimodal

Texte + une image

Évaluation multimodale en un appel synchrone unique. Les entrées image couvrent les catégories sexual, violence et self-harm.

Compatibilité

Compatible OpenAI SDK

Fonctionne directement avec le SDK OpenAI. Changez base_url, mettez model à evolink-moderation-1.0 — pas besoin de réécrire le code.

Langues

Détection multilingue

Forte couverture multimodale dans 40+ langues, dont l'anglais, le chinois, l'espagnol et le japonais.

FAQ EvoLink Moderation 1.0

Everything you need to know about the product and billing.

EvoLink Moderation 1.0 est un classifieur multimodal de sécurité de contenu avec des seuils de niveau de risque calibrés. Chaque réponse contient les champs de modération standard plus un champ evolink_summary avec un risk_level calibré (low/medium/high) et les catégories ayant déclenché des infractions — 13 scores bruts condensés en une décision unique.
Treize catégories : harassment, harassment/threatening, hate, hate/threatening, illicit, illicit/violent, self-harm, self-harm/intent, self-harm/instructions, sexual, sexual/minors, violence, violence/graphic. Les entrées image couvrent sexual, violence, self-harm et violence/graphic.
Non. Chaque requête prend en charge du texte plus une seule image_url. Pour modérer plusieurs images, envoyez des requêtes parallèles — une par image — et agrégez les résultats dans votre application.
EvoLink applique des seuils par catégorie ajustés pour la production. sexual/minors et self-harm utilisent des seuils stricts (high à 0,20 / 0,60), violence/graphic à 0,70, harassment/hate à 0,85. Toute catégorie atteignant son seuil high renvoie risk_level = high et flagged = true.
Forfait de 1 crédit (10 000 UC) par appel pour tous les groupes d'utilisateurs. Tarification à l'appel et non au token : le coût est entièrement prévisible quelle que soit la taille de l'entrée.
Oui. Le point de terminaison accepte le même schéma de requête que /v1/moderations. Réglez base_url sur votre point de terminaison EvoLink et model sur evolink-moderation-1.0 ; le SDK OpenAI fonctionne sans modification — le champ evolink_summary est ajouté à côté de la réponse standard.