HappyHorse 1.0 ya disponibleProbar ahora
Precios de la OpenAI Moderation API: gratuita, límites de tasa y alternativas
pricing

Precios de la OpenAI Moderation API: gratuita, límites de tasa y alternativas

EvoLink Team
EvoLink Team
Product Team
29 de abril de 2026
10 min de lectura
Si está buscando información sobre los precios de la OpenAI Moderation API, la respuesta breve es sencilla: según el Centro de Ayuda de OpenAI, el endpoint de Moderation es gratuito para los usuarios de la API de OpenAI y no se contabiliza en los límites de uso mensuales.

Sin embargo, esto no cierra la decisión. Los equipos de producción aún necesitan comprender qué cubre el endpoint, qué no cubre, cómo se aplican los límites de tasa y cuándo un flujo de moderación de pago o integrado en la plataforma resulta más fácil de operar.

Esta guía separa la respuesta oficial sobre precios de la decisión práctica de ingeniería.

TL;DR

  • El endpoint de Moderation de OpenAI es gratuito para los usuarios de la API de OpenAI, según el Centro de Ayuda de OpenAI.
  • El modelo omni-moderation-latest de OpenAI está diseñado para detectar contenido dañino y acepta texto e imágenes como entrada, según la página oficial del modelo de OpenAI.
  • El precio gratuito no elimina los costos del flujo de trabajo, como logging, colas de revisión, mapeo de políticas, reintentos, comportamiento de fallback y decisiones específicas de la aplicación.
  • Elija el endpoint gratuito de OpenAI si ya utiliza OpenAI directamente y su flujo de moderación se ajusta a sus categorías y formato de respuesta.
  • Considere una API de moderación compatible con OpenAI como EvoLink Moderation 1.0 si desea verificaciones de texto e imágenes, resúmenes de risk_level, precios fijos por llamada y el flujo de moderación dentro de su stack de la API de EvoLink.

¿Es gratuita la OpenAI Moderation API?

Sí. El Centro de Ayuda oficial de OpenAI indica que el endpoint de Moderation es gratuito para los usuarios de la API de OpenAI y que el uso de la herramienta no se contabiliza en los límites de uso mensuales.

Esa es la respuesta sobre precios. La siguiente pregunta es operativa:

¿Es suficiente un endpoint de moderación gratuito para su flujo de trabajo en producción?

Para prototipos, herramientas internas y moderación simple orientada al texto, puede serlo. Para aplicaciones que manejan contenido generado por usuarios, carga de imágenes, agentes de IA o colas de revisión, la llamada a la API es solo una parte del sistema.

¿Qué cubre la moderación de OpenAI?

OpenAI documenta omni-moderation-latest como un modelo de moderación diseñado para identificar contenido potencialmente dañino en texto e imágenes. La página oficial del modelo lo describe como el modelo de moderación más capaz de OpenAI y menciona soporte para entrada/salida de texto y entrada de imágenes.
La guía de moderación de OpenAI también explica las categorías de clasificación de contenido y señala que algunas categorías son solo para texto. Si envía únicamente imágenes a omni-moderation-latest, las categorías que no admiten entrada de imágenes devuelven una puntuación de 0.

Esto significa que los equipos deben revisar cuidadosamente la tabla de categorías antes de asumir que cada categoría de texto se aplica directamente a la moderación de imágenes.

El costo real está en el flujo de trabajo, no solo en el precio de la API

El endpoint de Moderation puede ser gratuito, pero un sistema de moderación en producción aún necesita decisiones sobre:

  • dónde ejecutar las verificaciones: antes de las llamadas al modelo, después de las respuestas del modelo, o en ambos momentos
  • cómo mapear las categorías a decisiones de permitir, revisar o bloquear
  • cómo registrar los resultados de moderación sin almacenar contenido sensible innecesariamente
  • cómo manejar falsos positivos y apelaciones
  • cómo moderar la carga de imágenes por separado de la entrada de texto
  • cómo monitorear la latencia, los errores y los límites de tasa
  • cómo mantener un comportamiento de políticas consistente en todas las superficies del producto

Estos son costos de ingeniería y operaciones. No aparecen en una página de precios, pero determinan si la capa de moderación es realmente mantenible.

Cuándo el endpoint gratuito de OpenAI es una buena opción

El endpoint gratuito de Moderation de OpenAI suele ser una buena primera opción cuando:

  • ya utiliza OpenAI directamente
  • su aplicación está orientada principalmente al texto
  • solo necesita las categorías de moderación documentadas por OpenAI
  • puede construir su propio flujo de revisión y escalamiento
  • su equipo se siente cómodo gestionando el análisis de respuestas, los umbrales y los logs

En ese caso, es difícil argumentar en contra del endpoint gratuito. Comience con él, pruébelo con su contenido real y mida los falsos positivos y los casos no detectados antes de enrutar tráfico de producción.

Cuándo tiene sentido una alternativa compatible con OpenAI

Una alternativa de pago puede tener sentido cuando el valor no es "más barata que gratis", sino más sencilla de operar.
EvoLink Moderation 1.0 está orientada a equipos que desean una API de moderación de contenido para texto e imágenes con un endpoint /v1/moderations compatible con OpenAI. En lugar de tratar la moderación como una herramienta separada fuera de su plataforma de API, se integra en el mismo flujo de trabajo de EvoLink utilizado para otras llamadas a modelos.

EvoLink Moderation 1.0 es útil cuando desea:

  • verificaciones de solo texto, solo imagen y texto más imagen a través de un único endpoint
  • 13 categorías de daño con puntuaciones por categoría
  • un objeto evolink_summary con risk_level, flagged, violations, max_score y max_category
  • precios fijos por llamada en lugar de cálculos por tokens
  • una estructura de respuesta más fácil de mapear a la lógica de permitir, revisar o bloquear
Para detalles de implementación, ejemplos de solicitudes y el límite de una imagen por solicitud, consulte la documentación de la API de EvoLink Moderation.

Cómo usar la OpenAI Moderation API en Python

Si ya está utilizando el OpenAI SDK, una llamada básica de moderación de texto se ve así:

from openai import OpenAI

client = OpenAI()

response = client.moderations.create(
    model="omni-moderation-latest",
    input="user text here"
)

print(response.results[0].flagged)
print(response.results[0].categories)
Con EvoLink Moderation, la estructura del SDK se mantiene familiar. Cambie el base_url, use su API key de EvoLink y establezca el modelo como evolink-moderation-1.0:
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_EVOLINK_API_KEY",
    base_url="https://api.evolink.ai/v1"
)

response = client.moderations.create(
    model="evolink-moderation-1.0",
    input="user text here"
)

print(response.evolink_summary.risk_level)
print(response.evolink_summary.violations)
La diferencia importante no está en la estructura del SDK, sino en lo que su aplicación hace con el resultado. OpenAI devuelve flags y puntuaciones por categoría que usted interpreta. EvoLink agrega evolink_summary.risk_level, que está diseñado para mapearse directamente a decisiones de permitir, revisar o bloquear.
Para un análisis más detallado del modelo de OpenAI detrás del endpoint actual, consulte nuestra guía de omni-moderation-latest. Si todavía está comparando proveedores, consulte la lista de las mejores APIs y herramientas de moderación de contenido.
PreguntaOpenAI Moderation APIEvoLink Moderation 1.0
¿Es gratuito el endpoint de moderación?Sí, para usuarios de la API de OpenAI, según el Centro de Ayuda de OpenAINo. EvoLink utiliza precios fijos por llamada
Estructura principal del endpoint/v1/moderations/v1/moderations compatible con OpenAI
Moderación de textoCompatibleCompatible
Moderación de imágenesCompatible con omni-moderation-latest, con soporte de entrada específico por categoríaCompatible para solicitudes de solo imagen y texto más imagen
Campo de decisión en producciónUsted interpreta las categorías y puntuacionesevolink_summary.risk_level está diseñado para flujos de permitir / revisar / bloquear
Mejor ajusteEquipos que ya trabajan directamente con OpenAIEquipos que desean moderación dentro de un flujo de trabajo de la API de EvoLink

Esta no es una comparación con un ganador universal. El endpoint de OpenAI es la opción obvia para muchas aplicaciones nativas de OpenAI. EvoLink es una mejor opción cuando su flujo de moderación se beneficia de un endpoint unificado de texto e imagen, un resumen de riesgo simplificado y facturación y operaciones basadas en EvoLink.

Recomendación práctica

Utilice el endpoint gratuito de Moderation de OpenAI si su aplicación ya es nativa de OpenAI y su política de moderación se mapea limpiamente a sus categorías documentadas.

Utilice EvoLink Moderation si desea una API de moderación de contenido compatible con OpenAI para texto e imágenes con un campo de resumen orientado a producción y facturación predecible por llamada.

Utilice un sistema de moderación multicapa si su aplicación tiene requisitos de políticas personalizadas que necesitan reglas de marca, revisión humana, apelaciones o flujos de cumplimiento más allá de cualquier API de moderación individual.

FAQ

¿Es gratuita la OpenAI Moderation API?

Sí. El Centro de Ayuda de OpenAI indica que el endpoint de Moderation es gratuito para los usuarios de la API de OpenAI y no se contabiliza en los límites de uso mensuales.

¿La moderación de OpenAI admite imágenes?

Sí, omni-moderation-latest acepta imágenes como entrada según la página oficial del modelo de OpenAI. Sin embargo, la guía de moderación de OpenAI señala que algunas categorías son solo para texto, por lo que los equipos deben revisar el soporte de entrada a nivel de categoría antes de depender de la moderación de solo imágenes.
No en precio bruto del endpoint. El endpoint de Moderation de OpenAI es gratuito para los usuarios de la API de OpenAI. EvoLink Moderation es una opción de pago con precio fijo por llamada para equipos que valoran un endpoint compatible con OpenAI, flujo de trabajo de texto más imagen y un resumen simplificado de risk_level dentro de EvoLink.
Sí, si su objetivo es un endpoint de moderación compatible con OpenAI dentro de EvoLink. EvoLink Moderation utiliza model: evolink-moderation-1.0 y devuelve campos de moderación estándar más evolink_summary.

¿Debo moderar prompts, outputs o ambos?

Para aplicaciones de IA en producción, muchos equipos moderan tanto las entradas como las salidas. La moderación de entradas puede reducir las solicitudes inseguras antes de que lleguen a un modelo. La moderación de salidas puede detectar respuestas generadas inseguras antes de que lleguen a los usuarios.

¿Qué es omni-moderation-latest?

omni-moderation-latest es el modelo de moderación actual de OpenAI para entradas de texto e imágenes. Para detalles sobre entradas, comportamiento de categorías y casos de uso en producción, lea nuestra guía de omni-moderation-latest.

¿Cuál es el límite de tasa de la OpenAI Moderation API?

Los límites de tasa de la OpenAI Moderation API varían según el nivel de la cuenta y pueden cambiar con el tiempo. Consulte su página de límites de uso de OpenAI y la documentación actual de OpenAI antes de planificar el rendimiento en producción.

¿Cómo uso la OpenAI Moderation API en Python?

Utilice el OpenAI SDK y llame a client.moderations.create() con model="omni-moderation-latest" y su texto o imagen de entrada. Los ejemplos de Python anteriores muestran las estructuras de solicitud tanto para OpenAI como para la versión compatible con EvoLink.

Guías de moderación relacionadas

Explore EvoLink Moderation 1.0

¿Listo para reducir tus costos de IA en un 89%?

Comienza a usar EvoLink hoy y experimenta el poder del enrutamiento inteligente de API.