HappyHorse 1.0 ya disponibleProbar ahora
Guía de API de moderación de imágenes: cómo filtrar imágenes inseguras subidas por usuarios
guide

Guía de API de moderación de imágenes: cómo filtrar imágenes inseguras subidas por usuarios

EvoLink Team
EvoLink Team
Product Team
29 de abril de 2026
12 min de lectura
Una API de moderación de imágenes le ayuda a detectar contenido visual inseguro o no deseado antes de que llegue a los usuarios. Para aplicaciones con imágenes subidas por usuarios, esto generalmente significa verificar avatares, publicaciones en foros, fotos de marketplace, archivos adjuntos de chat o imágenes generadas por IA en busca de contenido como material sexual, violencia, autolesión, contenido gráfico u otras violaciones de políticas.

La parte difícil no es llamar a la API. La parte difícil es diseñar el flujo de carga alrededor de ella.

Esta guía explica dónde encaja la moderación de imágenes, qué pueden y qué no pueden detectar las API de imágenes, y cómo construir un flujo práctico de permitir / revisar / bloquear con EvoLink Moderation 1.0.

Resumen rápido

  • Utilice moderación de imágenes cuando usuarios públicos o semipúblicos puedan subir avatares, publicaciones, fotos de marketplace, imágenes generadas por IA o archivos adjuntos de mensajes.
  • Ejecute la moderación del lado del servidor antes de que las imágenes sean visibles públicamente.
  • Utilice almacenamiento temporal y luego mueva las imágenes aprobadas al almacenamiento permanente.
  • Trate la moderación automatizada como una primera capa, no como una decisión final perfecta.
  • Agregue revisión humana, reportes de usuarios y apelaciones para casos ambiguos.
  • EvoLink Moderation soporta solicitudes de solo imagen y de texto más imagen a través de un endpoint /v1/moderations compatible con OpenAI.

Por qué la moderación de imágenes es diferente de la moderación de texto

La moderación de texto y la moderación de imágenes resuelven problemas relacionados pero diferentes.

La moderación de texto puede inspeccionar palabras, frases y patrones de lenguaje. La moderación de imágenes necesita interpretar píxeles, objetos, contexto visual y, a veces, texto incrustado en una imagen.

Esto crea varias diferencias:

AspectoModeración de textoModeración de imágenes
Tamaño de entradaGeneralmente pequeñoA menudo mucho mayor
ContextoLenguaje y conversaciónEscena visual, objetos, OCR, subtítulos
Errores comunessarcasmo, lenguaje codificado, faltas de contextoarte, imágenes médicas, trajes de baño, memes, recortes, superposiciones
Impacto en el flujocomentario rechazado o en colalos medios subidos pueden necesitar almacenamiento temporal
Sensibilidad del usuarioel usuario generalmente puede reescribirlas fotos de perfil o imágenes personales rechazadas pueden sentirse más sensibles

Por eso un sistema de moderación de imágenes confiable generalmente combina una API con reglas del producto, colas de revisión y reportes de usuarios.

Casos de uso comunes de moderación de imágenes

1. Fotos de perfil y avatares

Las fotos de perfil son visibles en todo el producto. También son fáciles de abusar.

Las verificaciones de moderación generalmente buscan:

  • imágenes sexuales o explícitas
  • violencia gráfica
  • imágenes de autolesión
  • símbolos de odio
  • visuales amenazantes o intimidantes

Para avatares, los falsos positivos importan. Si una foto de perfil normal es rechazada, la experiencia del usuario puede volverse frustrante rápidamente. Un buen patrón es bloquear automáticamente solo las imágenes de alto riesgo, enviar las imágenes inciertas a revisión y permitir las imágenes claras de bajo riesgo.

2. Cargas en foros y redes sociales

Los foros y plataformas sociales a menudo combinan texto e imágenes. El título de una publicación puede cambiar el significado de una imagen, y una imagen puede cambiar el significado de un título.

Para estos flujos de trabajo, la moderación de texto más imagen es útil porque la aplicación puede evaluar ambas partes de un envío antes de la publicación.

3. Fotos de productos en marketplaces

La moderación de imágenes en marketplaces no se trata solo de contenido NSFW. Las plataformas de productos también pueden necesitar detectar:

  • artículos prohibidos
  • armas o drogas
  • marcas de agua
  • problemas de calidad de imagen
  • fotos engañosas
  • afirmaciones visuales sensibles a políticas

Para verificaciones de calidad de imagen, OCR, detección de marcas de agua o reglas especializadas de marketplace, un servicio dedicado de moderación visual como Sightengine, Amazon Rekognition o Azure AI Content Safety puede ser útil dependiendo del flujo de trabajo.

4. Imágenes generadas por IA

Las imágenes generadas por IA aún pueden violar políticas de contenido. Si los usuarios generan imágenes dentro de su aplicación o suben activos generados por IA, modere ambos:

  • el prompt o título
  • la imagen generada

Esto es especialmente importante cuando los resultados son públicos, monetizados o están vinculados a una experiencia segura para la marca.

5. Archivos adjuntos de mensajería

Los mensajes privados o semiprivados crean una decisión de producto más difícil porque la moderación se cruza con las expectativas de privacidad. Algunos productos escanean las cargas antes de la entrega; otros escanean solo el contenido reportado; algunos combinan advertencias del lado del cliente con aplicación del lado del servidor.

El diseño correcto depende del producto, las obligaciones legales, la política de privacidad y las expectativas de los usuarios.

Cómo funcionan las API de moderación de imágenes

La mayoría de las API de moderación de imágenes siguen el mismo patrón básico:

  1. Usted proporciona una URL de imagen, archivo subido, objeto de almacenamiento o bytes de imagen.
  2. La API analiza la imagen con uno o más modelos de moderación.
  3. La respuesta devuelve etiquetas de categoría, puntuaciones de confianza o indicadores booleanos.
  4. Su aplicación decide si permitir, revisar o bloquear la imagen.
Por ejemplo, la API DetectModerationLabels de Amazon Rekognition devuelve etiquetas de moderación con puntuaciones de confianza y una taxonomía jerárquica. La API de moderación de imágenes de Sightengine devuelve puntuaciones de moderación detalladas para modelos seleccionados. El endpoint de moderación de OpenAI devuelve indicadores y puntuaciones de categoría para texto e imágenes, con soporte de imágenes que varía según la categoría.

Fuentes:

Arquitectura de carga recomendada

Para la mayoría de las aplicaciones públicas, el patrón más seguro es:

carga del usuario
  -> almacenamiento temporal
  -> API de moderación de imágenes
  -> permitir / revisar / bloquear
  -> almacenamiento permanente solo si se permite o se aprueba en revisión

Esto evita que las imágenes inseguras se hagan públicas antes de ser verificadas.

Patrón 1: advertencia previa del lado del cliente

Las verificaciones del lado del cliente pueden advertir a los usuarios rápidamente, pero no deberían ser su única capa de aplicación.

Use verificaciones del lado del cliente para:

  • retroalimentación instantánea al usuario
  • reducir abusos obvios antes de la carga
  • ahorrar ancho de banda en flujos de bajo riesgo

Pero siempre aplique las políticas del lado del servidor, porque las verificaciones del lado del cliente pueden ser eludidas.

Patrón 2: moderación posterior a la carga, previa a la publicación

Este es el patrón de producción predeterminado.

  1. Suba la imagen a almacenamiento temporal privado.
  2. Envíe la URL de la imagen a una API de moderación.
  3. Si es de bajo riesgo, muévala al almacenamiento permanente.
  4. Si es de riesgo medio, póngala en cola para revisión.
  5. Si es de alto riesgo, rechace y elimine el archivo temporal.

Patrón 3: moderación asíncrona

Para comunidades de confianza o flujos de trabajo de alto volumen, puede almacenar primero y moderar en segundo plano. Si hace esto, mantenga las imágenes privadas hasta que sean aprobadas o visibles solo para quien las subió hasta que las verificaciones terminen.

  • moderación de solo texto
  • moderación de solo imagen
  • moderación de texto más una imagen
Utiliza un endpoint /v1/moderations compatible con OpenAI y devuelve campos de moderación estándar más evolink_summary.

El resumen está diseñado para decisiones de producto:

  • risk_level
  • flagged
  • violations
  • max_score
  • max_category
Para ejemplos completos de solicitudes y límites, consulte la documentación de la API de EvoLink Moderation.

Ejemplo de solo imagen

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_EVOLINK_API_KEY",
    base_url="https://api.evolink.ai/v1"
)

response = client.moderations.create(
    model="evolink-moderation-1.0",
    input=[
        {
            "type": "image_url",
            "image_url": {
                "url": "https://example.com/user-upload.jpg"
            }
        }
    ]
)

risk = response.evolink_summary.risk_level

if risk == "high":
    block_image()
elif risk == "medium":
    send_to_review()
else:
    approve_image()

Ejemplo de texto más imagen

response = client.moderations.create(
    model="evolink-moderation-1.0",
    input=[
        {"type": "text", "text": "User caption or message"},
        {
            "type": "image_url",
            "image_url": {
                "url": "https://example.com/user-upload.jpg"
            }
        }
    ]
)

Manejo de múltiples imágenes

EvoLink Moderation soporta una imagen por solicitud. Si un usuario sube múltiples imágenes, envíe solicitudes concurrentes o procéselas a través de una cola.

def decide_album_status(results):
    risk_order = {"low": 0, "medium": 1, "high": 2}
    highest = max(results, key=lambda r: risk_order[r.evolink_summary.risk_level])
    return highest.evolink_summary.risk_level

En muchas aplicaciones, una imagen de alto riesgo debería bloquear todo el envío, mientras que las imágenes de riesgo medio pueden enviar el envío a revisión.

Mejores prácticas para moderación de imágenes en producción

1. Modere del lado del servidor

Las verificaciones del lado del cliente pueden mejorar la experiencia del usuario, pero el servidor debe tomar la decisión final. De lo contrario, los usuarios pueden eludir la verificación llamando directamente a su API de carga.

2. Use almacenamiento temporal

No publique una imagen subida inmediatamente. Almacénela de forma privada, modérela y luego muévala al bucket público o CDN solo después de la aprobación.

3. Use decisiones escalonadas

Evite una bifurcación binaria simple. Un flujo de trabajo de tres niveles le da más control:

  • bajo riesgo: permitir
  • riesgo medio: revisar
  • alto riesgo: bloquear

4. Proporcione retroalimentación específica al usuario

Los mensajes de rechazo genéricos generan carga de soporte. Cuando sea posible, explique la categoría a un nivel general:

  • "Esta imagen parece contener contenido sexual."
  • "Esta imagen parece contener violencia gráfica."
  • "Esta imagen requiere revisión antes de su publicación."

Evite exponer umbrales exactos o debilidades del modelo que podrían ayudar a los usuarios a evadir la moderación.

5. Agregue reportes y apelaciones

Ningún modelo es perfecto. Agregue reportes de usuarios y apelaciones para que su equipo pueda corregir falsos positivos y detectar falsos negativos.

6. Rastree la calidad de la moderación

Mida:

  • tasa de rechazo
  • tasa de cola de revisión
  • tasa de anulación del revisor
  • tasa de éxito de apelaciones
  • tasa de reportes de usuarios
  • tasa de reincidentes
  • latencia y tasa de error de la API

Estos números le ayudan a ajustar umbrales y decidir cuándo agregar otra capa de moderación.

7. Pruebe con contenido real

Use muestras anonimizadas o seguras según las políticas de su propia aplicación. Las afirmaciones de benchmarks públicos rara vez predicen cómo se comportará una API de moderación en su comunidad, marketplace o estilo de imagen exacto.

Errores comunes

Error 1: asumir que una sola API detecta todo

Las API de moderación de imágenes son útiles, pero no entienden todas las políticas del producto. Es posible que aún necesite reglas personalizadas para categorías de marketplace, seguridad de marca, derechos de autor, marcas de agua o cumplimiento local.

Error 2: publicar antes de que termine la moderación

Si las imágenes inseguras pueden aparecer aunque sea brevemente, los usuarios pueden capturar pantalla y compartirlas. Mantenga las cargas privadas hasta que las verificaciones terminen.

Error 3: bloquear cada imagen incierta

Los umbrales excesivamente estrictos crean falsos positivos. Envíe el contenido incierto a revisión en lugar de rechazar todo automáticamente.

Error 4: ignorar el texto alrededor de la imagen

Un título puede cambiar el significado de una imagen. Si su producto permite títulos, modere el texto y la imagen juntos.

Error 5: olvidar la privacidad y la retención

Las imágenes pueden incluir rostros, documentos, espacios privados o menores. Revise el manejo de datos, la retención, la región y los términos de uso para entrenamiento de su proveedor antes del uso en producción.

Cuándo usar un proveedor especializado de moderación de imágenes

EvoLink Moderation es una buena opción para decisiones de seguridad de texto e imagen dentro de un flujo de trabajo de API compatible con OpenAI.

Considere un proveedor de imágenes especializado como Sightengine, Amazon Rekognition o Azure AI Content Safety cuando necesite:

  • moderación intensiva de OCR
  • detección de marcas de agua
  • detección de rostros
  • detección de deepfakes
  • moderación de video
  • moderación de transmisiones en vivo
  • clases visuales personalizadas
  • integración nativa en la nube con AWS o Azure

La respuesta correcta puede ser una pila por capas: EvoLink para enrutamiento de seguridad de texto más imagen, más un servicio visual especializado para calidad de imagen, OCR o verificaciones específicas de marketplace.

Preguntas frecuentes

¿Qué es una API de moderación de imágenes?

Una API de moderación de imágenes analiza imágenes y devuelve señales de seguridad como etiquetas de categoría, puntuaciones de confianza o niveles de riesgo. Las aplicaciones usan esas señales para permitir, revisar o bloquear imágenes subidas.

Sí. EvoLink Moderation 1.0 soporta solicitudes de solo imagen y solicitudes de texto más una imagen a través de un endpoint de moderación compatible con OpenAI.

No. EvoLink Moderation soporta una imagen por solicitud. Para múltiples imágenes, envíe solicitudes concurrentes o use una cola.

¿Debo moderar las imágenes antes o después de la carga?

Use almacenamiento temporal de carga primero, modere del lado del servidor y luego mueva las imágenes aprobadas al almacenamiento permanente. Esto evita que las imágenes inseguras se hagan públicas antes de que las verificaciones terminen.

¿Es suficiente la moderación de imágenes para un marketplace?

Generalmente no por sí sola. Los marketplaces a menudo necesitan verificaciones de seguridad más reglas de calidad, verificaciones de artículos prohibidos, OCR, detección de marcas de agua y revisión humana.

Guías de moderación relacionadas

Explore EvoLink Moderation 1.0

¿Listo para reducir tus costos de IA en un 89%?

Comienza a usar EvoLink hoy y experimenta el poder del enrutamiento inteligente de API.