HappyHorse 1.0 ya disponibleProbar ahora

EvoLink Moderation 1.0 API

EvoLink Moderation 1.0 es un modelo multimodal de seguridad de contenido que clasifica texto e imágenes en 13 categorías de daño con niveles de riesgo calibrados. 100% compatible con el endpoint OpenAI /v1/moderations, incorpora umbrales ajustados por EvoLink y un campo summary claro para producción.

Máxima estabilidad con 99.9% de disponibilidad garantizada. Recomendado para producción.

Todas las versiones usan el mismo endpoint API. Solo cambia el parámetro model.

Precios

Facturación por llamada

USD

por llamada

Créditos

por llamada

Reglas de facturación

  • Tarifa plana de 1 crédito por llamada — sin facturación por token y sin niveles de volumen.
  • El coste es independiente de la longitud de la entrada o si incluye imagen.
  • Cada respuesta incluye los campos estándar de moderación más un bloque evolink_summary que resume risk_level y violations en una sola decisión.
  • Las solicitudes fallidas (4xx/5xx) no se facturan.

Umbrales de nivel de riesgo

EvoLink aplica umbrales por categoría para calcular risk_level. Cualquier categoría que alcance su umbral high produce risk_level = high y flagged = true.

CategoríaMediumHighSensibilidad
sexual/minors0.050.20Línea roja — nunca tolerado
self-harm0.300.60Estricto — sesgo bajo de falso negativo
self-harm/intent0.300.60Estricto — sesgo bajo de falso negativo
self-harm/instructions0.300.60Estricto — sesgo bajo de falso negativo
violence/graphic0.400.70Estricto — sesgo bajo de falso negativo
illicit/violent0.400.70Estricto — sesgo bajo de falso negativo
sexual0.500.80Estándar
violence0.500.80Estándar
harassment/threatening0.500.80Estándar
hate/threatening0.500.80Estándar
harassment0.600.85Relajado — menos falsos positivos
hate0.600.85Relajado — menos falsos positivos
illicit0.600.85Relajado — menos falsos positivos

Los umbrales pueden evolucionar. Los valores en producción son los que devuelve la API.

Moderación de contenido lista para producción

EvoLink Moderation 1.0 ofrece clasificación de seguridad determinista para texto e imágenes. Cada solicitud devuelve 13 puntuaciones de categorías más un resumen EvoLink con nivel de riesgo, infracciones y categoría dominante — su aplicación decide con un solo campo en lugar de analizar resultados complejos.

Presentación de la API EvoLink Moderation 1.0

¿Qué puedes construir con EvoLink Moderation 1.0?

Seguridad de contenido generado por usuarios

Filtra comentarios, publicaciones y subidas ofensivas en plataformas sociales, foros y aplicaciones comunitarias. Detecta acoso, discurso de odio y contenido explícito antes de que llegue a tus usuarios.

Caso de uso de moderación UGC

Salvaguardas para salidas de IA

Envuelve tu chatbot, copilot o pipeline generativo con un control de seguridad. Pasa los prompts y las salidas por EvoLink Moderation antes de entregarlos para bloquear respuestas que violen las políticas con latencia predecible.

Caso de uso de salvaguardas IA

Flujos de cumplimiento y confianza

Impulsa colas de moderación, revisión KYC y flujos de cumplimiento con etiquetas de infracción estructuradas. El resumen risk_level se mapea limpiamente a permitir / revisar / bloquear.

Caso de uso de cumplimiento

Por qué los equipos eligen EvoLink Moderation 1.0

EvoLink Moderation 1.0 es una capa de seguridad multimodal lista para producción con niveles de riesgo deterministas, soporte multilingüe y compatibilidad OpenAI.

13 categorías de daño

Detecta acoso, odio, sexual, violencia, autolesión, contenido ilícito y violaciones de seguridad infantil con puntuaciones de confianza por categoría.

Entrada multimodal

Envía texto solo, una sola imagen sola, o texto más una imagen en la misma solicitud. Las categorías de imagen cubren sexual, violence y self-harm.

Nivel de riesgo determinista

Cada respuesta incluye evolink_summary con risk_level (low / medium / high), array violations y la categoría con mayor puntuación.

Precio predecible

Facturación por llamada a 1 crédito por solicitud. Sin matemáticas de tokens, sin sorpresas de streaming — modera tanto como permita tu presupuesto.

Cómo integrar EvoLink Moderation 1.0

EvoLink Moderation es totalmente compatible con el endpoint OpenAI /v1/moderations. Solo cambia la base URL y pasa model: evolink-moderation-1.0.

1

Paso 1 — Autenticarse

Crea una clave API EvoLink y llama a /v1/moderations con autenticación Bearer.

2

Paso 2 — Enviar input

Pasa model: evolink-moderation-1.0 y un array input con un elemento text, un elemento image_url o ambos. Una sola imagen por solicitud.

3

Paso 3 — Leer evolink_summary

Usa evolink_summary.risk_level (low/medium/high) y violations[] para decidir permitir / revisar / bloquear en una sola rama.

Capacidades principales de EvoLink Moderation 1.0

Umbrales ajustados por EvoLink, calibrados para producción

Motor

Motor de seguridad de nivel producción

Un clasificador multimodal de vanguardia, calibrado por EvoLink con umbrales por categoría ajustados a cargas reales de moderación.

Calibración

Umbrales por categoría

Umbrales estrictos en sexual/minors y self-harm, umbrales más amplios en harassment y hate para reducir falsos positivos.

Esquema

Campo EvoLink Summary

Un único objeto evolink_summary con risk_level, flagged, violations, max_score y max_category — junto con los campos estándar de moderación para usuarios avanzados.

Multimodal

Texto + una imagen

Evaluación multimodal en una sola llamada síncrona. Las entradas de imagen cubren sexual, violence y self-harm.

Compatibilidad

Compatible con OpenAI SDK

Funciona directamente con el SDK de OpenAI. Cambia base_url, establece model en evolink-moderation-1.0 — sin reescribir código.

Idiomas

Detección multilingüe

Sólida cobertura multimodal en 40+ idiomas, incluidos inglés, chino, español y japonés.

Preguntas frecuentes de EvoLink Moderation 1.0

Everything you need to know about the product and billing.

EvoLink Moderation 1.0 es un clasificador multimodal de seguridad de contenido con umbrales de nivel de riesgo calibrados. Cada respuesta incluye los campos estándar de moderación más un campo evolink_summary con un risk_level calibrado (low/medium/high) y las categorías que activaron las infracciones — 13 puntuaciones brutas condensadas en una sola decisión.
Trece categorías: harassment, harassment/threatening, hate, hate/threatening, illicit, illicit/violent, self-harm, self-harm/intent, self-harm/instructions, sexual, sexual/minors, violence, violence/graphic. Las entradas de imagen cubren sexual, violence, self-harm y violence/graphic.
No. Cada solicitud admite texto más una sola image_url. Para moderar varias imágenes, envía solicitudes concurrentes — una por imagen — y agrega los resultados en tu aplicación.
EvoLink aplica umbrales por categoría ajustados para producción. sexual/minors y self-harm usan cortes estrictos (high en 0,20 / 0,60), violence/graphic en 0,70, harassment/hate en 0,85. Cualquier categoría que iguale o supere su umbral high devuelve risk_level = high y flagged = true.
Tarifa plana de 1 crédito (10 000 UC) por llamada en todos los grupos de usuarios. Facturación por llamada, no por token — el coste es totalmente predecible independientemente del tamaño de la entrada.
Sí. El endpoint acepta el mismo esquema de solicitud que /v1/moderations. Establece base_url en tu endpoint EvoLink y model en evolink-moderation-1.0 — el SDK de OpenAI funciona sin modificaciones; el campo evolink_summary se añade junto a la respuesta estándar.