
GPT Image 2 (2026): estado oficial de OpenAI y estrategia de integración

GPT Image 2 (2026): estado oficial de OpenAI y estrategia de integración
- A fecha de 22 de abril de 2026, OpenAI ya ha publicado una página oficial de modelo para
gpt-image-2. - En EvoLink,
gpt-image-2está disponible para integración directa, ygpt-image-2-betase mantiene como ruta complementaria de pruebas. - Lo que de verdad importa para los desarrolladores es: qué información es oficialmente confirmada por OpenAI, cómo exponen el modelo los distintos providers, y cómo diseñar tu sistema para que una futura migración no sea un dolor de cabeza.
Por eso, este artículo no empieza hablando de marketing. Primero vamos a dejar claro el estado oficial de OpenAI y después discutiremos la estrategia de integración más sólida en EvoLink.
Esta guía está pensada para equipos que trabajan en serio con imágenes: generación de fotos de producto, pipelines de edición, automatización creativa, generación de prototipos y flujos de IA de múltiples pasos. Vamos a dejar claras tres cosas:
- ¿Qué ha confirmado oficialmente OpenAI?
- En las discusiones sobre GPT Image 2, ¿qué sigue siendo ambiguo, sin documentar claramente, o específico de cada provider?
- Si necesitas montar un flujo de generación de imágenes ahora, ¿cuál es la estrategia de integración y migración más sólida?
Resumen rápido
- A fecha de 22 de abril de 2026, OpenAI ya ha publicado la página oficial de modelo para
gpt-image-2. - La página oficial de modelo de OpenAI da a los desarrolladores un punto de referencia claro:
gpt-image-2es el nombre de modelo oficial y público. - Para tareas puntuales de generación o edición, OpenAI recomienda usar la Image API.
- Para experiencias de edición conversacional con múltiples pasos, OpenAI recomienda usar la Responses API.
- EvoLink ofrece actualmente
gpt-image-2ygpt-image-2-beta, siendo el primero la ruta de integración principal recomendada. - ¿Quieres "prepararte para GPT Image 2"? La estrategia más sólida es: separar el nombre de modelo del fabricante y el nombre de ruta del proveedor, y abstraer el enrutamiento de modelos en tu arquitectura.
Qué busca la gente de verdad cuando busca "GPT Image 2"
La pregunta ya no es "si este nombre es solo un término de marketing". Lo que pasa es que detrás de la misma keyword se mezclan necesidades completamente diferentes.
En la práctica, "GPT Image 2" corresponde al menos a cuatro intenciones de búsqueda:
- "¿OpenAI sacó un modelo nuevo después de GPT Image 1.5?"
- "¿Las funciones de imagen de ChatGPT se actualizaron otra vez?"
- "¿Tengo que cambiar el ID de modelo en mi integración API?"
- "¿Cómo diseño mi arquitectura ahora para que migrar después sea fácil?"
Qué ha confirmado oficialmente OpenAI
1. gpt-image-2 ya tiene una página oficial de modelo
gpt-image-2, lo que significa que GPT Image 2 ya no es solo un término de marketing ni una palabra comodín en la comunidad de desarrolladores.Esto es importante porque traza una nueva línea clara para los desarrolladores: qué está confirmado oficialmente por OpenAI y qué sigue siendo un detalle de implementación de cada proveedor o una descripción externa.
2. OpenAI ofrece dos rutas principales de integración API para imágenes
La documentación actual divide las API de imágenes en dos modalidades:
- Image API - ideal para generar o editar una sola imagen de una vez.
- Responses API - ideal para experiencias conversacionales, de múltiples pasos y con edición iterativa.
Esta elección afecta directamente al diseño de tu sistema. Muchos equipos se obsesionan con el nombre del modelo, pero ignoran una cuestión arquitectónica más fundamental: ¿estás construyendo una herramienta de generación puntual o un flujo de edición iterativa?
3. El modo en segundo plano (Background Mode) ya está documentado
4. La edición y la entrada de imágenes de alta fidelidad ya son funciones públicas
La documentación actual ya soporta muchas capacidades que la gente cree que necesitan "el modelo de siguiente generación":
- Generación y edición de imágenes
- Edición en múltiples turnos con la Responses API
- Preservación de alta fidelidad de las imágenes de entrada
- Soporte de máscaras (masks) en flujos de edición
En otras palabras, la mayor parte de las capacidades del "flujo de trabajo de imágenes de siguiente generación" ya están disponibles en el stack tecnológico actual.
Lo que OpenAI todavía no ha dejado del todo claro
Aquí es donde más fácil se mezclan las cosas.
- Que todas las plataformas de terceros expongan el modelo con exactamente el mismo nombre en la petición
- Que una ruta llamada
gpt-image-2-betasea semánticamente equivalente algpt-image-2oficial de OpenAI - Una guía oficial de migración de
gpt-image-1.5agpt-image-2 - Benchmarks oficiales de latencia de
GPT Image 2 - Comparativas oficiales de rendimiento como "40% de mejora en renderizado de texto" o "tasa de éxito del 95%"
Cualquier artículo que borre estas diferencias está arriesgando su credibilidad.
Para la mayoría de los equipos, lo más práctico es: confirmar primero los hechos a nivel de fabricante con la documentación oficial de OpenAI, y luego leer la documentación de la versión beta de EvoLink como referencia de implementación de la capa de enrutamiento actual del proveedor.
Integración en EvoLink: GPT Image 2 como ruta principal, Beta como complemento
gpt-image-2, y también mantiene gpt-image-2-beta como ruta complementaria de pruebas.gpt-image-2 debería ser el nombre de modelo principal. Si necesitas hacer validación gradual, comparativas de resultados o pruebas por fases, usa gpt-image-2-beta; no hace falta que la versión beta le quite protagonismo a la ruta principal.Lo que está disponible actualmente:
- Página de producto de GPT Image 2 - consulta capacidades y casos de uso
- Playground en línea - prueba prompts y flujos de trabajo sin escribir código
- Documentación API completa - guía de integración para la ruta actual de GPT Image 2
- Soporte para texto a imagen, imagen a imagen y edición de imágenes
- Procesamiento asíncrono de tareas - compatible con generaciones de larga duración
La forma de integración es compatible con el formato OpenAI que ya conoces:
- Nombre del modelo en la petición por defecto:
gpt-image-2 - Endpoint de generación:
/v1/images/generations - Obtención de resultados asíncronos mediante flujo de estado de tarea
- Parámetro opcional
image_urlspara edición con imagen de referencia o imagen a imagen - Parámetro opcional
callback_urlpara callback HTTPS al completar la tarea - Aspect ratios soportados:
1:1,3:2,2:3,auto - Los enlaces de imagen devueltos se mantienen activos durante 24 horas por defecto
- Ruta complementaria de pruebas:
gpt-image-2-beta
gpt-image-2. Solo cuando necesites explícitamente hacer pruebas graduales, comparativas de resultados o validaciones por fases, necesitarás usar gpt-image-2-beta.Cómo llamar a GPT Image 2 en EvoLink
gpt-image-2 como nombre de modelo en el endpoint unificado de generación de imágenes:curl --request POST \
--url https://api.evolink.ai/v1/images/generations \
--header "Authorization: Bearer $EVOLINK_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "gpt-image-2",
"prompt": "A premium product photo of a ceramic coffee mug on a marble countertop, soft window light, clean e-commerce composition",
"size": "1:1"
}'image_urls.El flujo de desarrollo es sencillo:
- Prueba tus prompts en el Playground de GPT Image 2
- Pasa a llamadas API especificando
model: "gpt-image-2" - Haz polling del resultado de la tarea asíncrona
- Guarda las imágenes dentro del periodo de validez de 24 horas
Cómo diseñar una arquitectura preparada para migrar
gpt-image-2 de EvoLink o estás comparando otros modelos de imagen: si haces bien estas cosas en la arquitectura, cambiar de modelo en el futuro no será doloroso.gpt-image-1.5 sigue siendo una referencia de comparación importante
gpt-image-2 ya tiene su página oficial de modelo, gpt-image-1.5 sigue siendo una referencia valiosa para que los equipos hagan comparativas de capacidades, evaluaciones de estabilidad y diseñen la migración. Ya cubre las capacidades clave que importan a la mayoría de los equipos:- Texto a imagen
- Edición de imágenes
- Flujos de trabajo de imagen conversacionales mediante la Responses API
- Mejor renderizado de texto que la generación anterior
- Mayor fidelidad en la preservación de imágenes de entrada
gpt-image-1.5 es la opción predeterminada más sólida.Abstrae el enrutamiento de modelos desde el primer día
Esta es la verdadera estrategia de "prepararse para GPT Image 2": no pongas el nombre del modelo hardcodeado por todo el código; centraliza la decisión de enrutamiento en la capa de servicio.
type ImageJobType =
| "hero_image"
| "text_heavy_mockup"
| "product_edit"
| "creative_iteration";
function selectImageModel(jobType: ImageJobType): string {
switch (jobType) {
case "text_heavy_mockup":
return "gpt-image-1.5"; // opción conservadora cuando necesitas alinearte con la documentación anterior
case "hero_image":
case "product_edit":
case "creative_iteration":
default:
return "gpt-image-2"; // modelo más reciente por defecto
}
}Cuando necesites cambiar de modelo o alinear los nombres de ruta de distintos providers, solo modificas la tabla de enrutamiento, no haces un buscar-y-reemplazar en todo el repositorio.
La arquitectura asíncrona es obligatoria
Da igual qué modelo uses: la variabilidad en la latencia de generación de imágenes ya es considerable. La documentación de OpenAI indica explícitamente que los prompts complejos pueden tardar hasta 2 minutos, y el modo en segundo plano es la forma recomendada de gestionarlo.
Una arquitectura de producción debería ser:
- Enviar la petición de imagen
- Devolver inmediatamente un ID de tarea
- Hacer polling en segundo plano
- Almacenar el resultado cuando se complete
- Actualizar la UI cuando el asset final esté listo
Ejemplo mínimo de polling con la Responses API:
import OpenAI from "openai";
const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });
export async function submitImageJob(prompt: string) {
const response = await client.responses.create({
model: "gpt-4o",
input: prompt,
tools: [{ type: "image_generation" }],
background: true,
});
return response.id;
}
export async function waitForImage(responseId: string) {
let resp = await client.responses.retrieve(responseId);
while (resp.status === "queued" || resp.status === "in_progress") {
await new Promise((resolve) => setTimeout(resolve, 2000));
resp = await client.responses.retrieve(responseId);
}
return resp;
}Este patrón funciona sin importar cómo se llame el modelo en el futuro.
Capacidades de edición de GPT Image 2
Si tu caso de uso es generar o editar una imagen de forma puntual, prioriza la Image API. Si necesitas un flujo de edición conversacional con múltiples pasos, considera la Responses API.
La documentación actual de OpenAI ya cubre las siguientes capacidades de edición:
- Edición de imágenes y edición en múltiples turnos
- Entrada de alta fidelidad y flujos de edición con máscaras
Así que si quieres hacer cambio de fondo, edición de objetos pequeños, refinamiento visual iterativo o preservación de elementos de marca (logos, rostros, etc.), puedes empezar ahora mismo, sin necesidad de esperar.
Referencia de precios: solo datos verificables
gpt-image-2:| Modelo | Entrada de texto | Entrada de texto cacheada | Entrada de imagen | Entrada de imagen cacheada | Salida de imagen |
|---|---|---|---|---|---|
gpt-image-2 | $5.00 / 1M tokens | $1.25 / 1M tokens | $8.00 / 1M tokens | $2.00 / 1M tokens | $30.00 / 1M tokens |
gpt-image-1.5 | $5.00 / 1M tokens | $1.25 / 1M tokens | $8.00 / 1M tokens | $2.00 / 1M tokens | $32.00 / 1M tokens |
gpt-image-1 | $5.00 / 1M tokens | $1.25 / 1M tokens | $10.00 / 1M tokens | $2.50 / 1M tokens | $40.00 / 1M tokens |
gpt-image-1.5 y gpt-image-1:| Modelo | Low | Medium | High |
|---|---|---|---|
gpt-image-1.5 | $0.009 | $0.034 | $0.133 |
gpt-image-1 | $0.011 | $0.042 | $0.167 |
gpt-image-1.5 tiene una referencia más detallada en dimensión de tokens:- Entrada de texto: $5.00 / 1M tokens
- Entrada de imagen: $8.00 / 1M tokens
- Salida de imagen: $32.00 / 1M tokens
Tokens de salida por nivel de calidad a 1024x1024:
- low: 272
- medium: 1,056
- high: 4,160
Estos precios no están aquí para que decidas directamente "cuál es más rentable", sino para ayudarte a construir un marco de evaluación:
- Si necesitas una referencia de precios verificable oficialmente, prioriza los datos públicos de OpenAI para
gpt-image-1.5 - Si necesitas los precios reales de la ruta de integración actual en EvoLink, consulta la página de producto de EvoLink, y no mezcles ambas fuentes como si fueran el mismo nivel
- Si estás haciendo un presupuesto interno, lo mejor es gestionar "precios oficiales de referencia" y "precios reales de integración del provider" en columnas separadas
Estrategias prácticas de costes
Opción 1: Generar una vez, iterar con edición
- Usa
gpt-image-1.5para generar la imagen base - Usa edición y flujos de múltiples turnos para refinar
- Cuando solo necesites modificar una zona, evita regenerar la imagen entera
Opción 2: Enrutar por tipo de tarea
- Fotos de producto estándar ->
gpt-image-2 - Edición de producto ->
gpt-image-2 - Diseños con mucho texto (necesitan alinearse con la documentación anterior) ->
gpt-image-1.5 - Modelos experimentales futuros -> bucket de pruebas aislado
Lo importante no es adivinar cómo se llamará el próximo modelo, sino hacer que el coste de cambiar de modelo en el futuro sea lo más bajo posible.
Escenarios de uso típicos
Si quieres sacarle provecho real a este artículo, lo más útil no es seguir persiguiendo nombres de modelo, sino mapear los escenarios de negocio habituales con la ruta recomendada.
| Escenario de negocio | Ruta recomendada | Por qué |
|---|---|---|
| Generación de imagen principal de e-commerce | gpt-image-2 | Ideal para integrar directamente en el pipeline de producción, minimizando costes de cambio de nombre y ruta |
| Cambio de fondo, edición parcial, preservación de elementos de marca | gpt-image-2 | Más adecuada para construir flujos de edición de imagen directamente |
| Equipo creativo experimentando con nuevos prompts | gpt-image-2-beta | Más adecuada para validación gradual y comparativas de resultados |
| Pipeline de generación asíncrona dirigido por agentes | gpt-image-2 | La ruta principal es más adecuada como objetivo de orquestación estable, combinada con polling de tareas o callbacks |
| Comparativa A/B interna del equipo | gpt-image-2 + gpt-image-2-beta | Usa la ruta oficial para las muestras principales y la ruta beta para comparaciones complementarias |
Si estás construyendo un sistema de negocio, no un experimento puntual, lo que realmente deberías priorizar es:
- Hacer las tareas asíncronas
- Abstraer el enrutamiento
- Guardar los resultados de las imágenes
- Separar la ruta principal de la ruta de pruebas
Qué hacer ahora
A estas alturas, la mayoría de los equipos no necesitan "más noticias", sino un orden de acción claro.
Si hoy mismo quieres avanzar con tu proyecto, la ruta más práctica es:
- Prueba GPT Image 2 ahora mismo y evalúa si encaja en tu caso de uso
- Intégralo ya en tu entorno de desarrollo o testing
- Cuando la documentación oficial y las rutas de los providers se estabilicen más, solo ajustas la configuración de enrutamiento para una transición fluida
El stack tecnológico actual de GPT Image ya tiene capacidad suficiente para construir:
- Pipelines de generación de imágenes
- Flujos de edición
- Ciclos de refinamiento iterativo
- Despacho asíncrono de tareas
- Enrutamiento consciente de costes
Qué vigilar a continuación
gpt-image-2. Las señales que merecen atención a partir de ahora son:- Documentación de generación de imágenes actualizada con nuevos miembros de la serie GPT Image
- Tabla de precios oficial para el nuevo modelo
- Changelog o notas de lanzamiento
- Guía oficial de migración desde los modelos GPT Image actuales
gpt-image-2 como objetivo principal de integración, y solo recurrir a gpt-image-2-beta cuando necesites pruebas adicionales.Checklist antes de salir a producción
Si estás a punto de integrar GPT Image 2 en tu negocio de verdad, y no solo leer la documentación, te recomendamos verificar al menos estos puntos antes de salir a producción:
- ¿Tienes el nombre de modelo hardcodeado en múltiples sitios en lugar de centralizarlo en la configuración de enrutamiento?
- ¿La ruta de producción por defecto es
gpt-image-2y no estás usando la ruta beta como línea principal por error? - ¿Has dejado un interruptor independiente para
gpt-image-2-betapara evitar que la ruta de pruebas entre en producción por accidente? - ¿Estás gestionando el estado de las tareas asíncronas en lugar de asumir que la petición siempre devuelve la imagen final de inmediato?
- ¿Estás guardando los resultados de las imágenes dentro del periodo de validez de 24 horas en lugar de depender de enlaces temporales?
- ¿Estás diferenciando "información oficial del modelo de OpenAI" de "implementación de ruta actual del provider EvoLink"?
- ¿Tienes listo un mecanismo de callback o polling para adaptarte a tareas de generación de larga duración?
Preguntas frecuentes
Ahora que GPT Image 2 ya es público, ¿sigue siendo necesaria una arquitectura asíncrona?
Sí. La documentación de OpenAI ya indica que los prompts complejos pueden tardar hasta 2 minutos, y el modo en segundo plano es la forma recomendada de gestionarlo.
¿Ya se puede hacer edición iterativa de imágenes?
Sí. La documentación actual de OpenAI cubre edición de imágenes, edición en múltiples turnos, máscaras y entrada de imágenes de alta fidelidad.
¿Tendré que reescribir mi aplicación si el nombre del modelo o la ruta del provider cambian en el futuro?
Si abstraes el enrutamiento de modelos desde ahora, no. El cambio de modelo futuro debería ser una modificación en la tabla de enrutamiento, no una refactorización de toda la aplicación.
¿Cómo se entienden gpt-image-2 y gpt-image-2-beta en EvoLink?
gpt-image-2. En EvoLink, gpt-image-2 es la ruta de integración principal recomendada, y gpt-image-2-beta es más adecuada como ruta complementaria de pruebas para comparativas, validación gradual o pruebas por fases.¿Cuál es la opción predeterminada más práctica para integrar ahora?
gpt-image-2 por defecto. Solo cuando necesites explícitamente hacer pruebas graduales, comparativas A/B o validaciones por fases, activa gpt-image-2-beta como complemento.Empieza a usarlo
gpt-image-2-beta.Artículos relacionados
- Guía de producción del API GPT Image 1.5
- Guía completa de GPT Image 1.5: funciones, comparación y acceso
Fuentes de referencia
- OpenAI Models Overview: https://platform.openai.com/docs/models
- OpenAI Image Generation Guide: https://developers.openai.com/api/docs/guides/image-generation
- OpenAI GPT Image 1.5 Model Page: https://platform.openai.com/docs/models/gpt-image-1.5
- OpenAI GPT Image 2 Model Page: https://platform.openai.com/docs/models/gpt-image-2


