
Guía de API de moderación de imágenes: cómo filtrar imágenes inseguras subidas por usuarios

La parte difícil no es llamar a la API. La parte difícil es diseñar el flujo de carga alrededor de ella.
Resumen rápido
- Utilice moderación de imágenes cuando usuarios públicos o semipúblicos puedan subir avatares, publicaciones, fotos de marketplace, imágenes generadas por IA o archivos adjuntos de mensajes.
- Ejecute la moderación del lado del servidor antes de que las imágenes sean visibles públicamente.
- Utilice almacenamiento temporal y luego mueva las imágenes aprobadas al almacenamiento permanente.
- Trate la moderación automatizada como una primera capa, no como una decisión final perfecta.
- Agregue revisión humana, reportes de usuarios y apelaciones para casos ambiguos.
- EvoLink Moderation soporta solicitudes de solo imagen y de texto más imagen a través de un endpoint
/v1/moderationscompatible con OpenAI.
Por qué la moderación de imágenes es diferente de la moderación de texto
La moderación de texto y la moderación de imágenes resuelven problemas relacionados pero diferentes.
La moderación de texto puede inspeccionar palabras, frases y patrones de lenguaje. La moderación de imágenes necesita interpretar píxeles, objetos, contexto visual y, a veces, texto incrustado en una imagen.
Esto crea varias diferencias:
| Aspecto | Moderación de texto | Moderación de imágenes |
|---|---|---|
| Tamaño de entrada | Generalmente pequeño | A menudo mucho mayor |
| Contexto | Lenguaje y conversación | Escena visual, objetos, OCR, subtítulos |
| Errores comunes | sarcasmo, lenguaje codificado, faltas de contexto | arte, imágenes médicas, trajes de baño, memes, recortes, superposiciones |
| Impacto en el flujo | comentario rechazado o en cola | los medios subidos pueden necesitar almacenamiento temporal |
| Sensibilidad del usuario | el usuario generalmente puede reescribir | las fotos de perfil o imágenes personales rechazadas pueden sentirse más sensibles |
Por eso un sistema de moderación de imágenes confiable generalmente combina una API con reglas del producto, colas de revisión y reportes de usuarios.
Casos de uso comunes de moderación de imágenes
1. Fotos de perfil y avatares
Las fotos de perfil son visibles en todo el producto. También son fáciles de abusar.
Las verificaciones de moderación generalmente buscan:
- imágenes sexuales o explícitas
- violencia gráfica
- imágenes de autolesión
- símbolos de odio
- visuales amenazantes o intimidantes
Para avatares, los falsos positivos importan. Si una foto de perfil normal es rechazada, la experiencia del usuario puede volverse frustrante rápidamente. Un buen patrón es bloquear automáticamente solo las imágenes de alto riesgo, enviar las imágenes inciertas a revisión y permitir las imágenes claras de bajo riesgo.
2. Cargas en foros y redes sociales
Los foros y plataformas sociales a menudo combinan texto e imágenes. El título de una publicación puede cambiar el significado de una imagen, y una imagen puede cambiar el significado de un título.
Para estos flujos de trabajo, la moderación de texto más imagen es útil porque la aplicación puede evaluar ambas partes de un envío antes de la publicación.
3. Fotos de productos en marketplaces
La moderación de imágenes en marketplaces no se trata solo de contenido NSFW. Las plataformas de productos también pueden necesitar detectar:
- artículos prohibidos
- armas o drogas
- marcas de agua
- problemas de calidad de imagen
- fotos engañosas
- afirmaciones visuales sensibles a políticas
Para verificaciones de calidad de imagen, OCR, detección de marcas de agua o reglas especializadas de marketplace, un servicio dedicado de moderación visual como Sightengine, Amazon Rekognition o Azure AI Content Safety puede ser útil dependiendo del flujo de trabajo.
4. Imágenes generadas por IA
Las imágenes generadas por IA aún pueden violar políticas de contenido. Si los usuarios generan imágenes dentro de su aplicación o suben activos generados por IA, modere ambos:
- el prompt o título
- la imagen generada
Esto es especialmente importante cuando los resultados son públicos, monetizados o están vinculados a una experiencia segura para la marca.
5. Archivos adjuntos de mensajería
Los mensajes privados o semiprivados crean una decisión de producto más difícil porque la moderación se cruza con las expectativas de privacidad. Algunos productos escanean las cargas antes de la entrega; otros escanean solo el contenido reportado; algunos combinan advertencias del lado del cliente con aplicación del lado del servidor.
El diseño correcto depende del producto, las obligaciones legales, la política de privacidad y las expectativas de los usuarios.
Cómo funcionan las API de moderación de imágenes
La mayoría de las API de moderación de imágenes siguen el mismo patrón básico:
- Usted proporciona una URL de imagen, archivo subido, objeto de almacenamiento o bytes de imagen.
- La API analiza la imagen con uno o más modelos de moderación.
- La respuesta devuelve etiquetas de categoría, puntuaciones de confianza o indicadores booleanos.
- Su aplicación decide si permitir, revisar o bloquear la imagen.
DetectModerationLabels de Amazon Rekognition devuelve etiquetas de moderación con puntuaciones de confianza y una taxonomía jerárquica. La API de moderación de imágenes de Sightengine devuelve puntuaciones de moderación detalladas para modelos seleccionados. El endpoint de moderación de OpenAI devuelve indicadores y puntuaciones de categoría para texto e imágenes, con soporte de imágenes que varía según la categoría.Fuentes:
- OpenAI Moderation guide
- Amazon Rekognition DetectModerationLabels
- Sightengine image moderation principles
Arquitectura de carga recomendada
Para la mayoría de las aplicaciones públicas, el patrón más seguro es:
carga del usuario
-> almacenamiento temporal
-> API de moderación de imágenes
-> permitir / revisar / bloquear
-> almacenamiento permanente solo si se permite o se aprueba en revisiónEsto evita que las imágenes inseguras se hagan públicas antes de ser verificadas.
Patrón 1: advertencia previa del lado del cliente
Las verificaciones del lado del cliente pueden advertir a los usuarios rápidamente, pero no deberían ser su única capa de aplicación.
Use verificaciones del lado del cliente para:
- retroalimentación instantánea al usuario
- reducir abusos obvios antes de la carga
- ahorrar ancho de banda en flujos de bajo riesgo
Pero siempre aplique las políticas del lado del servidor, porque las verificaciones del lado del cliente pueden ser eludidas.
Patrón 2: moderación posterior a la carga, previa a la publicación
Este es el patrón de producción predeterminado.
- Suba la imagen a almacenamiento temporal privado.
- Envíe la URL de la imagen a una API de moderación.
- Si es de bajo riesgo, muévala al almacenamiento permanente.
- Si es de riesgo medio, póngala en cola para revisión.
- Si es de alto riesgo, rechace y elimine el archivo temporal.
Patrón 3: moderación asíncrona
Para comunidades de confianza o flujos de trabajo de alto volumen, puede almacenar primero y moderar en segundo plano. Si hace esto, mantenga las imágenes privadas hasta que sean aprobadas o visibles solo para quien las subió hasta que las verificaciones terminen.
Uso de EvoLink Moderation como API de moderación de imágenes
- moderación de solo texto
- moderación de solo imagen
- moderación de texto más una imagen
/v1/moderations compatible con OpenAI y devuelve campos de moderación estándar más evolink_summary.El resumen está diseñado para decisiones de producto:
risk_levelflaggedviolationsmax_scoremax_category
Ejemplo de solo imagen
from openai import OpenAI
client = OpenAI(
api_key="YOUR_EVOLINK_API_KEY",
base_url="https://api.evolink.ai/v1"
)
response = client.moderations.create(
model="evolink-moderation-1.0",
input=[
{
"type": "image_url",
"image_url": {
"url": "https://example.com/user-upload.jpg"
}
}
]
)
risk = response.evolink_summary.risk_level
if risk == "high":
block_image()
elif risk == "medium":
send_to_review()
else:
approve_image()Ejemplo de texto más imagen
response = client.moderations.create(
model="evolink-moderation-1.0",
input=[
{"type": "text", "text": "User caption or message"},
{
"type": "image_url",
"image_url": {
"url": "https://example.com/user-upload.jpg"
}
}
]
)Manejo de múltiples imágenes
EvoLink Moderation soporta una imagen por solicitud. Si un usuario sube múltiples imágenes, envíe solicitudes concurrentes o procéselas a través de una cola.
def decide_album_status(results):
risk_order = {"low": 0, "medium": 1, "high": 2}
highest = max(results, key=lambda r: risk_order[r.evolink_summary.risk_level])
return highest.evolink_summary.risk_levelEn muchas aplicaciones, una imagen de alto riesgo debería bloquear todo el envío, mientras que las imágenes de riesgo medio pueden enviar el envío a revisión.
Mejores prácticas para moderación de imágenes en producción
1. Modere del lado del servidor
Las verificaciones del lado del cliente pueden mejorar la experiencia del usuario, pero el servidor debe tomar la decisión final. De lo contrario, los usuarios pueden eludir la verificación llamando directamente a su API de carga.
2. Use almacenamiento temporal
No publique una imagen subida inmediatamente. Almacénela de forma privada, modérela y luego muévala al bucket público o CDN solo después de la aprobación.
3. Use decisiones escalonadas
Evite una bifurcación binaria simple. Un flujo de trabajo de tres niveles le da más control:
- bajo riesgo: permitir
- riesgo medio: revisar
- alto riesgo: bloquear
4. Proporcione retroalimentación específica al usuario
Los mensajes de rechazo genéricos generan carga de soporte. Cuando sea posible, explique la categoría a un nivel general:
- "Esta imagen parece contener contenido sexual."
- "Esta imagen parece contener violencia gráfica."
- "Esta imagen requiere revisión antes de su publicación."
Evite exponer umbrales exactos o debilidades del modelo que podrían ayudar a los usuarios a evadir la moderación.
5. Agregue reportes y apelaciones
Ningún modelo es perfecto. Agregue reportes de usuarios y apelaciones para que su equipo pueda corregir falsos positivos y detectar falsos negativos.
6. Rastree la calidad de la moderación
Mida:
- tasa de rechazo
- tasa de cola de revisión
- tasa de anulación del revisor
- tasa de éxito de apelaciones
- tasa de reportes de usuarios
- tasa de reincidentes
- latencia y tasa de error de la API
Estos números le ayudan a ajustar umbrales y decidir cuándo agregar otra capa de moderación.
7. Pruebe con contenido real
Use muestras anonimizadas o seguras según las políticas de su propia aplicación. Las afirmaciones de benchmarks públicos rara vez predicen cómo se comportará una API de moderación en su comunidad, marketplace o estilo de imagen exacto.
Errores comunes
Error 1: asumir que una sola API detecta todo
Las API de moderación de imágenes son útiles, pero no entienden todas las políticas del producto. Es posible que aún necesite reglas personalizadas para categorías de marketplace, seguridad de marca, derechos de autor, marcas de agua o cumplimiento local.
Error 2: publicar antes de que termine la moderación
Si las imágenes inseguras pueden aparecer aunque sea brevemente, los usuarios pueden capturar pantalla y compartirlas. Mantenga las cargas privadas hasta que las verificaciones terminen.
Error 3: bloquear cada imagen incierta
Los umbrales excesivamente estrictos crean falsos positivos. Envíe el contenido incierto a revisión en lugar de rechazar todo automáticamente.
Error 4: ignorar el texto alrededor de la imagen
Un título puede cambiar el significado de una imagen. Si su producto permite títulos, modere el texto y la imagen juntos.
Error 5: olvidar la privacidad y la retención
Las imágenes pueden incluir rostros, documentos, espacios privados o menores. Revise el manejo de datos, la retención, la región y los términos de uso para entrenamiento de su proveedor antes del uso en producción.
Cuándo usar un proveedor especializado de moderación de imágenes
EvoLink Moderation es una buena opción para decisiones de seguridad de texto e imagen dentro de un flujo de trabajo de API compatible con OpenAI.
Considere un proveedor de imágenes especializado como Sightengine, Amazon Rekognition o Azure AI Content Safety cuando necesite:
- moderación intensiva de OCR
- detección de marcas de agua
- detección de rostros
- detección de deepfakes
- moderación de video
- moderación de transmisiones en vivo
- clases visuales personalizadas
- integración nativa en la nube con AWS o Azure
La respuesta correcta puede ser una pila por capas: EvoLink para enrutamiento de seguridad de texto más imagen, más un servicio visual especializado para calidad de imagen, OCR o verificaciones específicas de marketplace.
Preguntas frecuentes
¿Qué es una API de moderación de imágenes?
Una API de moderación de imágenes analiza imágenes y devuelve señales de seguridad como etiquetas de categoría, puntuaciones de confianza o niveles de riesgo. Las aplicaciones usan esas señales para permitir, revisar o bloquear imágenes subidas.
¿EvoLink Moderation soporta moderación de imágenes?
Sí. EvoLink Moderation 1.0 soporta solicitudes de solo imagen y solicitudes de texto más una imagen a través de un endpoint de moderación compatible con OpenAI.
¿Puedo moderar múltiples imágenes en una sola solicitud de EvoLink?
No. EvoLink Moderation soporta una imagen por solicitud. Para múltiples imágenes, envíe solicitudes concurrentes o use una cola.
¿Debo moderar las imágenes antes o después de la carga?
Use almacenamiento temporal de carga primero, modere del lado del servidor y luego mueva las imágenes aprobadas al almacenamiento permanente. Esto evita que las imágenes inseguras se hagan públicas antes de que las verificaciones terminen.
¿Es suficiente la moderación de imágenes para un marketplace?
Generalmente no por sí sola. Los marketplaces a menudo necesitan verificaciones de seguridad más reglas de calidad, verificaciones de artículos prohibidos, OCR, detección de marcas de agua y revisión humana.
Guías de moderación relacionadas
- Best Content Moderation APIs and Tools for Developers
- omni-moderation-latest Explained: OpenAI Moderation API Guide
- OpenAI Moderation API Pricing: Is It Free? Limits and Alternatives
- How to Add Content Moderation to Your Chatbot or AI Agent


