
GPT Image 2 Entwicklerhandbuch (2026): Offizieller Status, Zugang & Integrationsstrategie

GPT Image 2 (2026): Offizieller Status bei OpenAI & Integrationsstrategie
- Stand 22. April 2026 hat OpenAI eine offizielle Modellseite fuer
gpt-image-2veroeffentlicht. - Auf EvoLink laesst sich
gpt-image-2direkt nutzen; zusaetzlich stehtgpt-image-2-betaals ergaenzende Testroute bereit. - Fuer Entwickler zaehlt: Welche Informationen stammen tatsaechlich von OpenAI, wie stellt der Provider das Modell bereit - und wie sollte die eigene Architektur aussehen, damit spaetere Migrationen reibungslos laufen?
Deshalb beginnt dieser Artikel nicht mit Marketing-Aussagen, sondern mit dem offiziellen Status bei OpenAI. Danach besprechen wir den stabilsten Integrationsweg ueber EvoLink.
Dieser Leitfaden richtet sich an Teams, die ernsthaft Bild-Workflows betreiben: Produktbildgenerierung, Bildbearbeitungs-Pipelines, kreative Automatisierung, Prototyp-Rendering, mehrstufige KI-Interaktionen. Wir klaeren drei Dinge:
- Was hat OpenAI offiziell bestaetigt?
- Was in der GPT-Image-2-Diskussion ist noch unklar, nicht dokumentiert oder Provider-spezifisch?
- Was ist die stabilste Integrations- und Migrationsstrategie, wenn Sie heute schon Bild-Workflows aufbauen wollen?
Kurzueberblick
- Stand 22. April 2026 hat OpenAI eine offizielle Modellseite fuer
gpt-image-2veroeffentlicht. - Die offizielle Modellseite gibt Entwicklern einen klaren Ankerpunkt:
gpt-image-2ist der offizielle, oeffentliche Modellname. - Fuer einzelne Generierungs- oder Bearbeitungsaufgaben empfiehlt OpenAI die Image API.
- Fuer dialogbasierte, mehrstufige Bildbearbeitung empfiehlt OpenAI die Responses API.
- EvoLink bietet aktuell
gpt-image-2undgpt-image-2-betaan - Ersteres eignet sich als Standardroute. - Sie wollen auf GPT Image 2 vorbereitet sein? Der sicherste Weg: Anbieter-Modellname und Routing-Name sauber trennen und das Model-Routing in der Architektur abstrahieren.
Was Nutzer wirklich suchen, wenn sie "GPT Image 2" eingeben
Die Frage ist nicht mehr, ob der Name nur ein Marketing-Begriff ist. Hinter demselben Keyword stecken mittlerweile ganz unterschiedliche Beduerfnisse.
Konkret lassen sich mindestens vier Suchintentionen unterscheiden:
- "Hat OpenAI nach GPT Image 1.5 ein neues Modell herausgebracht?"
- "Wurde die Bildfunktion von ChatGPT wieder aufgewertet?"
- "Muss ich meine API-Integration auf eine neue Modell-ID umstellen?"
- "Wie baue ich meine Architektur so, dass eine spaetere Migration einfach ist?"
Was OpenAI offiziell bestaetigt hat
1. gpt-image-2 hat jetzt eine offizielle Modellseite
gpt-image-2 eine oeffentliche Modellseite bereitgestellt. Das bedeutet: GPT Image 2 ist kein Marketing-Begriff mehr und auch kein Platzhalter aus der Entwickler-Community.Das ist wichtig, weil es Entwicklern eine neue, klare Grenze zieht: Was ist offiziell von OpenAI bestaetigt - und was bleibt Provider-spezifische Implementierung oder externe Darstellung.
2. OpenAI bietet zwei Hauptwege zur Bild-API-Integration
Die aktuelle Dokumentation unterscheidet zwei API-Ansaetze:
- Image API - ideal fuer die einmalige Generierung oder Bearbeitung eines einzelnen Bildes.
- Responses API - ideal fuer dialogbasierte, mehrstufige und iterative Bildbearbeitung.
Diese Wahl hat direkten Einfluss auf das Systemdesign. Viele Teams gruebeln ueber den Modellnamen, uebersehen aber die grundlegendere Architekturfrage: Bauen Sie ein einmaliges Bildgenerierungs-Tool oder einen iterativen Bearbeitungs-Workflow?
3. Hintergrundmodus (Background Mode) ist dokumentiert
4. Bearbeitung und High-Fidelity-Bildinput sind bereits verfuegbar
Die aktuelle Dokumentation unterstuetzt bereits viele Funktionen, die man vermeintlich erst mit dem "naechsten Modell" erwarten wuerde:
- Bildgenerierung und Bildbearbeitung
- Mehrstufige Bearbeitung ueber die Responses API
- High-Fidelity-Erhaltung des Eingabebildes
- Masken-Unterstuetzung im Bearbeitungs-Workflow
Mit anderen Worten: Der Grossteil der Faehigkeiten eines Bild-Workflows der naechsten Generation ist im aktuellen Tech-Stack bereits nutzbar.
Was OpenAI noch nicht vollstaendig dokumentiert hat
Hier entstehen die meisten Missverstaendnisse.
- Dass alle Drittanbieter-Plattformen denselben Request-Modellnamen verwenden
- Dass ein Routing-Name wie
gpt-image-2-betasemantisch identisch mit dem offiziellengpt-image-2bei OpenAI ist - Ein offizieller Migrationsleitfaden von
gpt-image-1.5zugpt-image-2 - Offizielle Latenz-Benchmarks fuer
GPT Image 2 - Leistungsvergleiche wie "40 % besseres Text-Rendering" oder "95 % Erfolgsquote"
Jede Darstellung, die diese Unterschiede einfach uebergeht, schadet der Glaubwuerdigkeit.
Fuer die meisten Teams ist der pragmatischere Ansatz: Zuerst anhand der offiziellen OpenAI-Dokumentation die Faktenlage auf Anbieterebene klaeren - und dann die EvoLink-Dokumentation als Implementierungsbeschreibung der aktuellen Routing-Ebene lesen.
EvoLink-Zugang: GPT Image 2 als Hauptroute, Beta als Ergaenzung
gpt-image-2 als direkte Zugangsroute an. Zusaetzlich bleibt gpt-image-2-beta als ergaenzende Testroute verfuegbar.gpt-image-2 der primaere Modellname sein. Wenn Sie Canary-Tests, Ergebnisvergleiche oder stufenweise Validierungen durchfuehren moechten, koennen Sie gpt-image-2-beta nutzen - aber die Beta-Version muss nicht die Hauptroute verdraengen.Aktuell verfuegbar:
- GPT Image 2 Produktseite - Modellfaehigkeiten und Einsatzszenarien
- Playground zum Online-Testen - Prompts und Workflows ohne Code ausprobieren
- Vollstaendige API-Dokumentation - Integrationsanleitung fuer die aktuelle GPT-Image-2-Route
- Unterstuetzung fuer Text-zu-Bild, Bild-zu-Bild und Bildbearbeitung
- Asynchrone Aufgabenverarbeitung - geeignet fuer langlaufende Generierungsaufgaben
Die Integration entspricht dem gewohnten OpenAI-kompatiblen Format:
- Standard-Modellname im Request:
gpt-image-2 - Generierungs-Endpoint:
/v1/images/generations - Asynchrone Ergebnisse ueber Task-Status-Abfrage
- Optionaler
image_urls-Parameter fuer Referenzbild-Bearbeitung oder Bild-zu-Bild - Optionaler
callback_url-Parameter fuer HTTPS-Callback bei Aufgabenabschluss - Unterstuetzte Seitenverhaeltnisse:
1:1,3:2,2:3,auto - Generierte Bild-Links sind standardmaessig 24 Stunden gueltig
- Ergaenzende Testroute:
gpt-image-2-beta
gpt-image-2 anbinden. Nur wenn Sie gezielt Canary-Tests, Ergebnisvergleiche oder stufenweise Validierungen durchfuehren, brauchen Sie zusaetzlich gpt-image-2-beta.So rufen Sie GPT Image 2 ueber EvoLink auf
gpt-image-2 als Modellnamen fuer den einheitlichen Bildgenerierungs-Endpoint:curl --request POST \
--url https://api.evolink.ai/v1/images/generations \
--header "Authorization: Bearer $EVOLINK_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "gpt-image-2",
"prompt": "一张高级感的陶瓷咖啡杯产品图,放在大理石台面上,柔和的窗光,干净的电商构图",
"size": "1:1"
}'image_urls-Parameter.Der Entwicklungsablauf ist einfach:
- Prompts im GPT Image 2 Playground testen
- Auf API-Aufrufe umstellen mit
model: "gpt-image-2" - Asynchrone Task-Ergebnisse abfragen (Polling)
- Bilder innerhalb der 24-Stunden-Gueltigkeit speichern
So bauen Sie eine migrationsfreundliche Architektur
gpt-image-2 nutzen oder andere Bildmodelle vergleichen - wenn Sie diese Punkte in der Architektur beachten, wird ein spaeterer Modellwechsel schmerzfrei.gpt-image-1.5 bleibt eine wichtige Vergleichsbasis
gpt-image-2 jetzt eine offizielle Modellseite hat, bleibt gpt-image-1.5 fuer Teams ein wichtiger Referenzpunkt bei Faehigkeitsvergleichen, Stabilitaetsbewertungen und Migrationsplanung. Es deckt bereits die Kernfaehigkeiten ab, die fuer die meisten Teams relevant sind:- Text-zu-Bild
- Bildbearbeitung
- Dialogbasierte Bild-Workflows ueber die Responses API
- Besseres Text-Rendering als die Vorgaengerversion
- Hoehere Eingabebild-Treue
gpt-image-1.5 die sicherste konservative Wahl.Model-Routing von Tag eins an abstrahieren
Das ist die eigentliche Vorbereitungsstrategie fuer GPT Image 2 - keine Modellnamen im Code verstreuen, sondern die Routing-Entscheidung zentral in der Service-Schicht buendeln.
type ImageJobType =
| "hero_image"
| "text_heavy_mockup"
| "product_edit"
| "creative_iteration";
function selectImageModel(jobType: ImageJobType): string {
switch (jobType) {
case "text_heavy_mockup":
return "gpt-image-1.5"; // Konservative Wahl bei Bedarf an Dokumentations-Kompatibilitaet
case "hero_image":
case "product_edit":
case "creative_iteration":
default:
return "gpt-image-2"; // Standard: aktuellstes Modell
}
}Wenn Sie spaeter das Modell wechseln oder Routing-Namen verschiedener Provider abgleichen muessen, aendern Sie nur die Routing-Tabelle - kein Repository-weites Suchen-und-Ersetzen noetig.
Asynchrone Architektur ist Pflicht
Unabhaengig vom Modell schwankt die Latenz bei Bildgenerierung erheblich. Die OpenAI-Dokumentation weist ausdruecklich darauf hin, dass komplexe Prompts bis zu 2 Minuten dauern koennen, und empfiehlt den Hintergrundmodus.
Eine produktionsreife Architektur sieht so aus:
- Bildanfrage absenden
- Sofort eine Task-ID zurueckgeben
- Im Hintergrund pollen
- Ergebnis nach Fertigstellung speichern
- UI aktualisieren, sobald das finale Asset bereitsteht
Minimalbeispiel fuer Polling mit der Responses API:
import OpenAI from "openai";
const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });
export async function submitImageJob(prompt: string) {
const response = await client.responses.create({
model: "gpt-4o",
input: prompt,
tools: [{ type: "image_generation" }],
background: true,
});
return response.id;
}
export async function waitForImage(responseId: string) {
let resp = await client.responses.retrieve(responseId);
while (resp.status === "queued" || resp.status === "in_progress") {
await new Promise((resolve) => setTimeout(resolve, 2000));
resp = await client.responses.retrieve(responseId);
}
return resp;
}Dieses Muster funktioniert unabhaengig davon, wie ein kuenftiges Modell heissen wird.
Bearbeitungsfaehigkeiten von GPT Image 2
Wenn Ihr Szenario eine einzelne Bildgenerierung oder -bearbeitung ist, nutzen Sie bevorzugt die Image API. Fuer mehrstufige, dialogbasierte Bild-Workflows ist die Responses API die bessere Wahl.
Die aktuelle OpenAI-Dokumentation deckt bereits folgende Bearbeitungsfaehigkeiten ab:
- Bildbearbeitung und mehrstufige Bearbeitung
- High-Fidelity-Input und Masken-basierte Bearbeitungs-Workflows
Wenn Sie also Hintergrundtausch, Kleinobjekt-Bearbeitung, iterative visuelle Verfeinerung oder Markenelemente-Erhaltung (Logo, Gesichter etc.) umsetzen moechten - Sie koennen heute schon damit anfangen, ohne auf irgendetwas warten zu muessen.
Preisreferenz: Nur verifizierbare Daten
gpt-image-2:| Modell | Text-Input | Gecachter Text-Input | Bild-Input | Gecachter Bild-Input | Bild-Output |
|---|---|---|---|---|---|
gpt-image-2 | $5,00 / 1M Tokens | $1,25 / 1M Tokens | $8,00 / 1M Tokens | $2,00 / 1M Tokens | $30,00 / 1M Tokens |
gpt-image-1.5 | $5,00 / 1M Tokens | $1,25 / 1M Tokens | $8,00 / 1M Tokens | $2,00 / 1M Tokens | $32,00 / 1M Tokens |
gpt-image-1 | $5,00 / 1M Tokens | $1,25 / 1M Tokens | $10,00 / 1M Tokens | $2,50 / 1M Tokens | $40,00 / 1M Tokens |
gpt-image-1.5 und gpt-image-1 auch Preise pro Einzelbild bei 1024x1024 auf:| Modell | Low | Medium | High |
|---|---|---|---|
gpt-image-1.5 | $0,009 | $0,034 | $0,133 |
gpt-image-1 | $0,011 | $0,042 | $0,167 |
gpt-image-1.5 eine detailliertere Token-basierte Referenz:- Text-Input: $5,00 / 1M Tokens
- Bild-Input: $8,00 / 1M Tokens
- Bild-Output: $32,00 / 1M Tokens
Output-Token-Anzahl bei 1024x1024 nach Qualitaetsstufe:
- low: 272
- medium: 1.056
- high: 4.160
Diese Preise dienen in diesem Artikel nicht dazu, Ihnen direkt zu sagen, welches Modell das beste Preis-Leistungs-Verhaeltnis bietet. Stattdessen helfen sie Ihnen, einen Beurteilungsrahmen aufzubauen:
- Wenn Sie eine offiziell nachpruefbare Preisbasis benoetigen, orientieren Sie sich an den veroeffentlichten OpenAI-Preisen fuer
gpt-image-1.5 - Wenn Sie die tatsaechlichen Preise der aktuell bei EvoLink verfuegbaren Routen wissen moechten, schauen Sie auf die EvoLink-Produktseite - und vermischen Sie nicht beide Preisebenen
- Fuer die interne Budgetplanung empfiehlt es sich, "offizielle Preisreferenz" und "tatsaechliche Provider-Zugangspreise" in getrennten Spalten zu fuehren
Pragmatische Kostenstrategien
Variante 1: Einmal generieren, iterativ verfeinern
- Basisbild mit
gpt-image-1.5generieren - Verfeinerung ueber Bearbeitungs- und mehrstufige Workflows
- Wenn nur ein Teilbereich geaendert werden soll, komplette Neugenerierung vermeiden
Variante 2: Aufgabenbasiertes Routing
- Standard-Produktbilder ->
gpt-image-2 - Produktbearbeitung ->
gpt-image-2 - Textlastige Designentwuerfe (Kompatibilitaet mit aelterer Dokumentation) ->
gpt-image-1.5 - Kuenftige Testmodelle -> isolierter Test-Bucket
Der Punkt ist nicht, den Namen des naechsten Modells zu erraten, sondern die Kosten eines spaeteren Modellwechsels so gering wie moeglich zu halten.
Typische Anwendungsszenarien
Wenn Sie diesen Leitfaden wirklich produktiv nutzen wollen, bringt es mehr, gaengige Business-Szenarien der passenden Route zuzuordnen, als weiter ueber Modellnamen zu diskutieren.
| Szenario | Empfohlene Route | Begruendung |
|---|---|---|
| E-Commerce-Produktbild generieren | gpt-image-2 | Direkter Produktionseinsatz, weniger Aufwand bei Namens- und Routing-Wechseln |
| Hintergrundtausch, lokale Bearbeitung, Markenelemente erhalten | gpt-image-2 | Optimal fuer Bildbearbeitungs-Workflows |
| Kreativteam testet neue Prompts | gpt-image-2-beta | Besser geeignet fuer Canary-Tests und Ergebnisvergleiche |
| Agent-gesteuerte asynchrone Bildgenerierungs-Pipeline | gpt-image-2 | Hauptroute als stabiles Orchestrierungsziel, kombiniert mit Task-Polling oder Callback |
| Teaminterner A/B-Vergleich | gpt-image-2 + gpt-image-2-beta | Hauptroute fuer die primaere Stichprobe, Beta-Version fuer ergaenzende Vergleiche |
Wenn Sie ein Geschaeftssystem bauen und nicht nur einmal ausprobieren, sollten Sie folgende Punkte priorisieren:
- Aufgaben asynchron verarbeiten
- Routing abstrahieren
- Bildergebnisse persistent speichern
- Produktionsroute und Testroute sauber trennen
Jetzt handeln
An diesem Punkt fehlt den meisten Teams kein weiteres Informations-Update, sondern eine klare Reihenfolge der naechsten Schritte.
Wenn Sie heute schon mit Ihrem Projekt vorankommen wollen, sieht ein pragmatischer Weg so aus:
- Jetzt ausprobieren - GPT Image 2 testen und bewerten, ob es zum eigenen Use Case passt
- Jetzt integrieren - in die Entwicklungs- oder Testumgebung einbinden
- Spaeter nahtlos umstellen - sobald offizielle Dokumentation und Provider-Routen weiter stabilisiert sind, nur die Routing-Konfiguration anpassen
Der aktuelle GPT-Image-Tech-Stack bietet bereits genug Faehigkeiten fuer:
- Bildgenerierungs-Pipelines
- Bearbeitungs-Workflows
- Iterative Verfeinerungsschleifen
- Asynchrones Task-Scheduling
- Kostenbasiertes Routing
Was sich weiterzuverfolgen lohnt
gpt-image-2-Modellseite. Die naechsten relevanten Signale waeren:- Aktualisierte Bildgenerierungs-Dokumentation mit neuem GPT-Image-Mitglied
- Eine offizielle Preistabelle fuer das neue Modell
- Changelog oder Release Notes
- Ein offizieller Migrationsleitfaden von den aktuellen GPT-Image-Modellen
gpt-image-2 als primaere Zugangsroute nutzen und gpt-image-2-beta nur bei konkretem Testbedarf ergaenzend einsetzen.Checkliste vor dem Go-Live
Wenn Sie GPT Image 2 ernsthaft in Ihr Geschaeft integrieren und nicht nur die Dokumentation ueberfliegen, sollten Sie vor dem Go-Live mindestens diese Punkte pruefen:
- Ist der Modellname im Code zentral konfiguriert statt an vielen Stellen hart codiert?
- Ist die Produktionsroute
gpt-image-2- und nicht versehentlich die Beta-Version als Hauptroute gesetzt? - Gibt es einen separaten Schalter fuer
gpt-image-2-beta, damit die Testroute nicht unbeabsichtigt in die Produktion gelangt? - Werden asynchrone Task-Status korrekt verarbeitet, statt davon auszugehen, dass jeder Request sofort ein fertiges Bild liefert?
- Werden Bildergebnisse innerhalb der 24-Stunden-Gueltigkeit gespeichert, statt sich auf temporaere Links zu verlassen?
- Ist klar getrennt, was "offizielle OpenAI-Modellinformation" ist und was "aktuelle Provider-Routing-Implementierung bei EvoLink"?
- Ist ein Callback- oder Polling-Mechanismus fuer langlaufende Generierungsaufgaben implementiert?
Haeufig gestellte Fragen
Braucht man trotz der offiziellen GPT-Image-2-Veroeffentlichung noch eine asynchrone Architektur?
Ja. Die OpenAI-Dokumentation weist darauf hin, dass komplexe Prompts bis zu 2 Minuten dauern koennen, und empfiehlt den Hintergrundmodus.
Kann man schon heute iterative Bildbearbeitung machen?
Ja. Die aktuelle OpenAI-Dokumentation umfasst Bildbearbeitung, mehrstufige Bearbeitung, Masken und High-Fidelity-Bildinput.
Muss man die Anwendung neu schreiben, wenn sich Modellnamen oder Provider-Routen aendern?
Nicht, wenn Sie das Model-Routing von Anfang an abstrahiert haben. Ein kuenftiger Modellwechsel sollte eine Aenderung in der Routing-Tabelle sein - kein kompletter App-Umbau.
Wie verhalten sich gpt-image-2 und gpt-image-2-beta auf EvoLink zueinander?
gpt-image-2. Auf EvoLink eignet sich gpt-image-2 als primaere Zugangsroute, waehrend gpt-image-2-beta als ergaenzende Testroute fuer Ergebnisvergleiche, Canary-Tests oder stufenweise Validierungen dient.Was ist die pragmatischste Standardwahl fuer die Integration?
gpt-image-2 an. Nur wenn Sie gezielt Canary-Tests, A/B-Vergleiche oder stufenweise Validierungen durchfuehren, aktivieren Sie zusaetzlich gpt-image-2-beta.Jetzt starten
gpt-image-2-beta zur Verfuegung.Verwandte Artikel
- GPT Image 1.5 API - Leitfaden fuer den Produktiveinsatz
- GPT Image 1.5 Komplett-Leitfaden: Funktionen, Vergleich & Zugang
Quellen
- OpenAI Modelluebersicht: https://platform.openai.com/docs/models
- OpenAI Bildgenerierungs-Leitfaden: https://developers.openai.com/api/docs/guides/image-generation
- OpenAI GPT Image 1.5 Modellseite: https://platform.openai.com/docs/models/gpt-image-1.5
- OpenAI GPT Image 2 Modellseite: https://platform.openai.com/docs/models/gpt-image-2


