HappyHorse 1.0 próximamenteMás información
GPT Image 2 (2026): estado oficial de OpenAI y estrategia de integración
guide

GPT Image 2 (2026): estado oficial de OpenAI y estrategia de integración

EvoLink Team
EvoLink Team
Product Team
22 de abril de 2026
18 min de lectura

GPT Image 2 (2026): estado oficial de OpenAI y estrategia de integración

Si estás buscando GPT Image 2, lo primero que necesitas aclarar no es "quién lo tiene primero", sino estas tres cuestiones mucho más prácticas:
  1. A fecha de 22 de abril de 2026, OpenAI ya ha publicado una página oficial de modelo para gpt-image-2.
  2. En EvoLink, gpt-image-2 está disponible para integración directa, y gpt-image-2-beta se mantiene como ruta complementaria de pruebas.
  3. Lo que de verdad importa para los desarrolladores es: qué información es oficialmente confirmada por OpenAI, cómo exponen el modelo los distintos providers, y cómo diseñar tu sistema para que una futura migración no sea un dolor de cabeza.

Por eso, este artículo no empieza hablando de marketing. Primero vamos a dejar claro el estado oficial de OpenAI y después discutiremos la estrategia de integración más sólida en EvoLink.

Esta guía está pensada para equipos que trabajan en serio con imágenes: generación de fotos de producto, pipelines de edición, automatización creativa, generación de prototipos y flujos de IA de múltiples pasos. Vamos a dejar claras tres cosas:

  • ¿Qué ha confirmado oficialmente OpenAI?
  • En las discusiones sobre GPT Image 2, ¿qué sigue siendo ambiguo, sin documentar claramente, o específico de cada provider?
  • Si necesitas montar un flujo de generación de imágenes ahora, ¿cuál es la estrategia de integración y migración más sólida?

Resumen rápido

  • A fecha de 22 de abril de 2026, OpenAI ya ha publicado la página oficial de modelo para gpt-image-2.
  • La página oficial de modelo de OpenAI da a los desarrolladores un punto de referencia claro: gpt-image-2 es el nombre de modelo oficial y público.
  • Para tareas puntuales de generación o edición, OpenAI recomienda usar la Image API.
  • Para experiencias de edición conversacional con múltiples pasos, OpenAI recomienda usar la Responses API.
  • EvoLink ofrece actualmente gpt-image-2 y gpt-image-2-beta, siendo el primero la ruta de integración principal recomendada.
  • ¿Quieres "prepararte para GPT Image 2"? La estrategia más sólida es: separar el nombre de modelo del fabricante y el nombre de ruta del proveedor, y abstraer el enrutamiento de modelos en tu arquitectura.

Qué busca la gente de verdad cuando busca "GPT Image 2"

La pregunta ya no es "si este nombre es solo un término de marketing". Lo que pasa es que detrás de la misma keyword se mezclan necesidades completamente diferentes.

En la práctica, "GPT Image 2" corresponde al menos a cuatro intenciones de búsqueda:

  1. "¿OpenAI sacó un modelo nuevo después de GPT Image 1.5?"
  2. "¿Las funciones de imagen de ChatGPT se actualizaron otra vez?"
  3. "¿Tengo que cambiar el ID de modelo en mi integración API?"
  4. "¿Cómo diseño mi arquitectura ahora para que migrar después sea fácil?"
Así que el foco de este artículo no es seguir debatiendo nombres, sino explicar con claridad la información oficial del modelo, cómo integrar en EvoLink ahora mismo, y una estrategia de ingeniería que puedas llevar a la práctica.

Qué ha confirmado oficialmente OpenAI

1. gpt-image-2 ya tiene una página oficial de modelo

OpenAI ya ha publicado una página pública de modelo para gpt-image-2, lo que significa que GPT Image 2 ya no es solo un término de marketing ni una palabra comodín en la comunidad de desarrolladores.

Esto es importante porque traza una nueva línea clara para los desarrolladores: qué está confirmado oficialmente por OpenAI y qué sigue siendo un detalle de implementación de cada proveedor o una descripción externa.

2. OpenAI ofrece dos rutas principales de integración API para imágenes

La documentación actual divide las API de imágenes en dos modalidades:

  • Image API - ideal para generar o editar una sola imagen de una vez.
  • Responses API - ideal para experiencias conversacionales, de múltiples pasos y con edición iterativa.

Esta elección afecta directamente al diseño de tu sistema. Muchos equipos se obsesionan con el nombre del modelo, pero ignoran una cuestión arquitectónica más fundamental: ¿estás construyendo una herramienta de generación puntual o un flujo de edición iterativa?

3. El modo en segundo plano (Background Mode) ya está documentado

La documentación de la Responses API de OpenAI incluye el modo en segundo plano (background mode), que es la forma recomendada oficialmente para gestionar tareas de larga duración.
La guía de generación de imágenes de OpenAI menciona explícitamente que los prompts complejos pueden tardar hasta 2 minutos. Esto significa que cualquier sistema de producción serio debe diseñarse como asíncrono desde el principio.

4. La edición y la entrada de imágenes de alta fidelidad ya son funciones públicas

La documentación actual ya soporta muchas capacidades que la gente cree que necesitan "el modelo de siguiente generación":

  • Generación y edición de imágenes
  • Edición en múltiples turnos con la Responses API
  • Preservación de alta fidelidad de las imágenes de entrada
  • Soporte de máscaras (masks) en flujos de edición

En otras palabras, la mayor parte de las capacidades del "flujo de trabajo de imágenes de siguiente generación" ya están disponibles en el stack tecnológico actual.

Lo que OpenAI todavía no ha dejado del todo claro

Aquí es donde más fácil se mezclan las cosas.

A fecha de 22 de abril de 2026, los siguientes puntos pueden presentar diferencias entre la documentación oficial de OpenAI y la implementación real de cada provider:
  • Que todas las plataformas de terceros expongan el modelo con exactamente el mismo nombre en la petición
  • Que una ruta llamada gpt-image-2-beta sea semánticamente equivalente al gpt-image-2 oficial de OpenAI
  • Una guía oficial de migración de gpt-image-1.5 a gpt-image-2
  • Benchmarks oficiales de latencia de GPT Image 2
  • Comparativas oficiales de rendimiento como "40% de mejora en renderizado de texto" o "tasa de éxito del 95%"

Cualquier artículo que borre estas diferencias está arriesgando su credibilidad.

Para la mayoría de los equipos, lo más práctico es: confirmar primero los hechos a nivel de fabricante con la documentación oficial de OpenAI, y luego leer la documentación de la versión beta de EvoLink como referencia de implementación de la capa de enrutamiento actual del proveedor.

Si después de leer el estado oficial y la evaluación de capacidades anterior quieres pasar directamente a la integración, aquí va la conclusión práctica: EvoLink ofrece actualmente integración directa con gpt-image-2, y también mantiene gpt-image-2-beta como ruta complementaria de pruebas.
De cara al exterior, gpt-image-2 debería ser el nombre de modelo principal. Si necesitas hacer validación gradual, comparativas de resultados o pruebas por fases, usa gpt-image-2-beta; no hace falta que la versión beta le quite protagonismo a la ruta principal.

Lo que está disponible actualmente:

  • Página de producto de GPT Image 2 - consulta capacidades y casos de uso
  • Playground en línea - prueba prompts y flujos de trabajo sin escribir código
  • Documentación API completa - guía de integración para la ruta actual de GPT Image 2
  • Soporte para texto a imagen, imagen a imagen y edición de imágenes
  • Procesamiento asíncrono de tareas - compatible con generaciones de larga duración

La forma de integración es compatible con el formato OpenAI que ya conoces:

  • Nombre del modelo en la petición por defecto: gpt-image-2
  • Endpoint de generación: /v1/images/generations
  • Obtención de resultados asíncronos mediante flujo de estado de tarea
  • Parámetro opcional image_urls para edición con imagen de referencia o imagen a imagen
  • Parámetro opcional callback_url para callback HTTPS al completar la tarea
  • Aspect ratios soportados: 1:1, 3:2, 2:3, auto
  • Los enlaces de imagen devueltos se mantienen activos durante 24 horas por defecto
  • Ruta complementaria de pruebas: gpt-image-2-beta
Para la mayoría de los equipos, la opción más limpia por defecto es integrar directamente gpt-image-2. Solo cuando necesites explícitamente hacer pruebas graduales, comparativas de resultados o validaciones por fases, necesitarás usar gpt-image-2-beta.
La ruta principal actual de EvoLink usa gpt-image-2 como nombre de modelo en el endpoint unificado de generación de imágenes:
curl --request POST \
  --url https://api.evolink.ai/v1/images/generations \
  --header "Authorization: Bearer $EVOLINK_API_KEY" \
  --header "Content-Type: application/json" \
  --data '{
    "model": "gpt-image-2",
    "prompt": "A premium product photo of a ceramic coffee mug on a marble countertop, soft window light, clean e-commerce composition",
    "size": "1:1"
  }'
Si necesitas edición con imagen de referencia o imagen a imagen, el mismo endpoint también admite el parámetro image_urls.

El flujo de desarrollo es sencillo:

  1. Prueba tus prompts en el Playground de GPT Image 2
  2. Pasa a llamadas API especificando model: "gpt-image-2"
  3. Haz polling del resultado de la tarea asíncrona
  4. Guarda las imágenes dentro del periodo de validez de 24 horas
¿Quieres empezar directamente? Comienza por la página de producto de GPT Image 2. Si realmente necesitas detalles de la ruta beta, consulta la documentación API de GPT Image 2 beta.

Cómo diseñar una arquitectura preparada para migrar

Da igual si ahora usas la ruta estándar gpt-image-2 de EvoLink o estás comparando otros modelos de imagen: si haces bien estas cosas en la arquitectura, cambiar de modelo en el futuro no será doloroso.

gpt-image-1.5 sigue siendo una referencia de comparación importante

Aunque gpt-image-2 ya tiene su página oficial de modelo, gpt-image-1.5 sigue siendo una referencia valiosa para que los equipos hagan comparativas de capacidades, evaluaciones de estabilidad y diseñen la migración. Ya cubre las capacidades clave que importan a la mayoría de los equipos:
  • Texto a imagen
  • Edición de imágenes
  • Flujos de trabajo de imagen conversacionales mediante la Responses API
  • Mejor renderizado de texto que la generación anterior
  • Mayor fidelidad en la preservación de imágenes de entrada
Si tu negocio necesita alinearse estrictamente con la documentación pública de OpenAI, gpt-image-1.5 es la opción predeterminada más sólida.

Abstrae el enrutamiento de modelos desde el primer día

Esta es la verdadera estrategia de "prepararse para GPT Image 2": no pongas el nombre del modelo hardcodeado por todo el código; centraliza la decisión de enrutamiento en la capa de servicio.

type ImageJobType =
  | "hero_image"
  | "text_heavy_mockup"
  | "product_edit"
  | "creative_iteration";

function selectImageModel(jobType: ImageJobType): string {
  switch (jobType) {
    case "text_heavy_mockup":
      return "gpt-image-1.5"; // opción conservadora cuando necesitas alinearte con la documentación anterior
    case "hero_image":
    case "product_edit":
    case "creative_iteration":
    default:
      return "gpt-image-2";  // modelo más reciente por defecto
  }
}

Cuando necesites cambiar de modelo o alinear los nombres de ruta de distintos providers, solo modificas la tabla de enrutamiento, no haces un buscar-y-reemplazar en todo el repositorio.

La arquitectura asíncrona es obligatoria

Da igual qué modelo uses: la variabilidad en la latencia de generación de imágenes ya es considerable. La documentación de OpenAI indica explícitamente que los prompts complejos pueden tardar hasta 2 minutos, y el modo en segundo plano es la forma recomendada de gestionarlo.

Una arquitectura de producción debería ser:

  1. Enviar la petición de imagen
  2. Devolver inmediatamente un ID de tarea
  3. Hacer polling en segundo plano
  4. Almacenar el resultado cuando se complete
  5. Actualizar la UI cuando el asset final esté listo

Ejemplo mínimo de polling con la Responses API:

import OpenAI from "openai";

const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });

export async function submitImageJob(prompt: string) {
  const response = await client.responses.create({
    model: "gpt-4o",
    input: prompt,
    tools: [{ type: "image_generation" }],
    background: true,
  });

  return response.id;
}

export async function waitForImage(responseId: string) {
  let resp = await client.responses.retrieve(responseId);

  while (resp.status === "queued" || resp.status === "in_progress") {
    await new Promise((resolve) => setTimeout(resolve, 2000));
    resp = await client.responses.retrieve(responseId);
  }

  return resp;
}

Este patrón funciona sin importar cómo se llame el modelo en el futuro.

Capacidades de edición de GPT Image 2

Si tu caso de uso es generar o editar una imagen de forma puntual, prioriza la Image API. Si necesitas un flujo de edición conversacional con múltiples pasos, considera la Responses API.

La documentación actual de OpenAI ya cubre las siguientes capacidades de edición:

  • Edición de imágenes y edición en múltiples turnos
  • Entrada de alta fidelidad y flujos de edición con máscaras

Así que si quieres hacer cambio de fondo, edición de objetos pequeños, refinamiento visual iterativo o preservación de elementos de marca (logos, rostros, etc.), puedes empezar ahora mismo, sin necesidad de esperar.

Un matiz importante: la documentación habla de mejor preservación y mayor fidelidad, no garantiza "perfección a nivel de píxel" en todos los casos.

Referencia de precios: solo datos verificables

A fecha de 22 de abril de 2026, la página oficial de precios de la API de OpenAI ya lista los precios por token de gpt-image-2:
ModeloEntrada de textoEntrada de texto cacheadaEntrada de imagenEntrada de imagen cacheadaSalida de imagen
gpt-image-2$5.00 / 1M tokens$1.25 / 1M tokens$8.00 / 1M tokens$2.00 / 1M tokens$30.00 / 1M tokens
gpt-image-1.5$5.00 / 1M tokens$1.25 / 1M tokens$8.00 / 1M tokens$2.00 / 1M tokens$32.00 / 1M tokens
gpt-image-1$5.00 / 1M tokens$1.25 / 1M tokens$10.00 / 1M tokens$2.50 / 1M tokens$40.00 / 1M tokens
Si prefieres una referencia histórica más visual, la documentación pública de OpenAI también muestra precios por generación individual a 1024x1024 para gpt-image-1.5 y gpt-image-1:
ModeloLowMediumHigh
gpt-image-1.5$0.009$0.034$0.133
gpt-image-1$0.011$0.042$0.167
Además, gpt-image-1.5 tiene una referencia más detallada en dimensión de tokens:
  • Entrada de texto: $5.00 / 1M tokens
  • Entrada de imagen: $8.00 / 1M tokens
  • Salida de imagen: $32.00 / 1M tokens

Tokens de salida por nivel de calidad a 1024x1024:

  • low: 272
  • medium: 1,056
  • high: 4,160

Estos precios no están aquí para que decidas directamente "cuál es más rentable", sino para ayudarte a construir un marco de evaluación:

  • Si necesitas una referencia de precios verificable oficialmente, prioriza los datos públicos de OpenAI para gpt-image-1.5
  • Si necesitas los precios reales de la ruta de integración actual en EvoLink, consulta la página de producto de EvoLink, y no mezcles ambas fuentes como si fueran el mismo nivel
  • Si estás haciendo un presupuesto interno, lo mejor es gestionar "precios oficiales de referencia" y "precios reales de integración del provider" en columnas separadas
Para los precios específicos de las rutas de GPT Image 2 en EvoLink, consulta la página de producto de GPT Image 2.

Estrategias prácticas de costes

Opción 1: Generar una vez, iterar con edición

  • Usa gpt-image-1.5 para generar la imagen base
  • Usa edición y flujos de múltiples turnos para refinar
  • Cuando solo necesites modificar una zona, evita regenerar la imagen entera

Opción 2: Enrutar por tipo de tarea

  • Fotos de producto estándar -> gpt-image-2
  • Edición de producto -> gpt-image-2
  • Diseños con mucho texto (necesitan alinearse con la documentación anterior) -> gpt-image-1.5
  • Modelos experimentales futuros -> bucket de pruebas aislado

Lo importante no es adivinar cómo se llamará el próximo modelo, sino hacer que el coste de cambiar de modelo en el futuro sea lo más bajo posible.

Escenarios de uso típicos

Si quieres sacarle provecho real a este artículo, lo más útil no es seguir persiguiendo nombres de modelo, sino mapear los escenarios de negocio habituales con la ruta recomendada.

Escenario de negocioRuta recomendadaPor qué
Generación de imagen principal de e-commercegpt-image-2Ideal para integrar directamente en el pipeline de producción, minimizando costes de cambio de nombre y ruta
Cambio de fondo, edición parcial, preservación de elementos de marcagpt-image-2Más adecuada para construir flujos de edición de imagen directamente
Equipo creativo experimentando con nuevos promptsgpt-image-2-betaMás adecuada para validación gradual y comparativas de resultados
Pipeline de generación asíncrona dirigido por agentesgpt-image-2La ruta principal es más adecuada como objetivo de orquestación estable, combinada con polling de tareas o callbacks
Comparativa A/B interna del equipogpt-image-2 + gpt-image-2-betaUsa la ruta oficial para las muestras principales y la ruta beta para comparaciones complementarias

Si estás construyendo un sistema de negocio, no un experimento puntual, lo que realmente deberías priorizar es:

  • Hacer las tareas asíncronas
  • Abstraer el enrutamiento
  • Guardar los resultados de las imágenes
  • Separar la ruta principal de la ruta de pruebas

Qué hacer ahora

A estas alturas, la mayoría de los equipos no necesitan "más noticias", sino un orden de acción claro.

Si hoy mismo quieres avanzar con tu proyecto, la ruta más práctica es:

  • Prueba GPT Image 2 ahora mismo y evalúa si encaja en tu caso de uso
  • Intégralo ya en tu entorno de desarrollo o testing
  • Cuando la documentación oficial y las rutas de los providers se estabilicen más, solo ajustas la configuración de enrutamiento para una transición fluida

El stack tecnológico actual de GPT Image ya tiene capacidad suficiente para construir:

  • Pipelines de generación de imágenes
  • Flujos de edición
  • Ciclos de refinamiento iterativo
  • Despacho asíncrono de tareas
  • Enrutamiento consciente de costes
¿Quieres empezar ya? Comienza por GPT Image 2 en EvoLink. Si prefieres alinearte de la forma más conservadora con las capacidades públicas de OpenAI, también puedes usar GPT Image 1.5 en EvoLink.

Qué vigilar a continuación

OpenAI ya ha superado el primer umbral: publicar la página oficial de modelo para gpt-image-2. Las señales que merecen atención a partir de ahora son:
  • Documentación de generación de imágenes actualizada con nuevos miembros de la serie GPT Image
  • Tabla de precios oficial para el nuevo modelo
  • Changelog o notas de lanzamiento
  • Guía oficial de migración desde los modelos GPT Image actuales
Hasta que esta información se complete, lo más prudente es: diseñar primero una arquitectura migrable basada en la documentación pública, usar gpt-image-2 como objetivo principal de integración, y solo recurrir a gpt-image-2-beta cuando necesites pruebas adicionales.

Checklist antes de salir a producción

Si estás a punto de integrar GPT Image 2 en tu negocio de verdad, y no solo leer la documentación, te recomendamos verificar al menos estos puntos antes de salir a producción:

  • ¿Tienes el nombre de modelo hardcodeado en múltiples sitios en lugar de centralizarlo en la configuración de enrutamiento?
  • ¿La ruta de producción por defecto es gpt-image-2 y no estás usando la ruta beta como línea principal por error?
  • ¿Has dejado un interruptor independiente para gpt-image-2-beta para evitar que la ruta de pruebas entre en producción por accidente?
  • ¿Estás gestionando el estado de las tareas asíncronas en lugar de asumir que la petición siempre devuelve la imagen final de inmediato?
  • ¿Estás guardando los resultados de las imágenes dentro del periodo de validez de 24 horas en lugar de depender de enlaces temporales?
  • ¿Estás diferenciando "información oficial del modelo de OpenAI" de "implementación de ruta actual del provider EvoLink"?
  • ¿Tienes listo un mecanismo de callback o polling para adaptarte a tareas de generación de larga duración?

Preguntas frecuentes

Ahora que GPT Image 2 ya es público, ¿sigue siendo necesaria una arquitectura asíncrona?

Sí. La documentación de OpenAI ya indica que los prompts complejos pueden tardar hasta 2 minutos, y el modo en segundo plano es la forma recomendada de gestionarlo.

¿Ya se puede hacer edición iterativa de imágenes?

Sí. La documentación actual de OpenAI cubre edición de imágenes, edición en múltiples turnos, máscaras y entrada de imágenes de alta fidelidad.

¿Tendré que reescribir mi aplicación si el nombre del modelo o la ruta del provider cambian en el futuro?

Si abstraes el enrutamiento de modelos desde ahora, no. El cambio de modelo futuro debería ser una modificación en la tabla de enrutamiento, no una refactorización de toda la aplicación.

El nombre de modelo oficial de OpenAI es gpt-image-2. En EvoLink, gpt-image-2 es la ruta de integración principal recomendada, y gpt-image-2-beta es más adecuada como ruta complementaria de pruebas para comparativas, validación gradual o pruebas por fases.

¿Cuál es la opción predeterminada más práctica para integrar ahora?

Si quieres ir a producción, integra primero gpt-image-2 por defecto. Solo cuando necesites explícitamente hacer pruebas graduales, comparativas A/B o validaciones por fases, activa gpt-image-2-beta como complemento.

Empieza a usarlo

Si quieres empezar a integrar GPT Image 2 ahora mismo, EvoLink ya ofrece integración directa. Si también necesitas hacer pruebas adicionales, puedes probar gpt-image-2-beta.
Compara modelos de imagen en EvoLink

Artículos relacionados

Fuentes de referencia

¿Listo para reducir tus costos de IA en un 89%?

Comienza a usar EvoLink hoy y experimenta el poder del enrutamiento inteligente de API.