
GPT-5.5 API Preise 2026: Kosten, Cached Input & Long-Context-Stufen

GPT-5.5 API Preise 2026: Kosten, Cached Input & Long-Context-Stufen
GPT-5.5 API Preistabelle
| Abrechnungsposten | EvoLink-Preis | Hinweise |
|---|---|---|
| Standard-Input | $4,00 / 1M Token | Prompt, Systemanweisungen, Gesprächsverlauf und sonstiger Input-Text |
| Output | $24,00 / 1M Token | Sichtbare Antwort-Token, ggf. inklusive Reasoning-Token |
| Cached Input | $0,40 / 1M Token | Wiederverwendete Prompt-/Kontextsegmente zu reduziertem Tarif |
| Long-Context-Input | $8,00 / 1M Token | Gilt, wenn der Input 272K Token übersteigt |
| Long-Context-Output | $36,00 / 1M Token | Gilt in derselben Long-Context-Session |
| Kontextfenster | 1M Token | Bei großen Prompts über dem Schwellenwert gelten Long-Context-Regeln |
| Maximaler Output | 128K Token | Output-Budget, keine garantierte Antwortlänge |
So funktioniert die GPT-5.5 Abrechnung
Die GPT-5.5 Abrechnung umfasst drei Token-Kategorien: Input, Output und Cached Input.
Cached-Input-Beispiel
Angenommen, Ihre Anwendung sendet bei jedem Request einen stabilen 50K-Token-Block aus Anweisungen und Dokumentation.
| Request-Typ | Berechnung | Kosten |
|---|---|---|
| Erster Request (ohne Cache) | 50K × $4,00 / 1M | $0,20 |
| Späterer Request (gecacht) | 50K × $0,40 / 1M | $0,02 |
Dieser Unterschied zeigt, warum stabiles Prompt-Design wichtig ist. Halten Sie wiederverwendbare Anweisungen über Requests hinweg identisch und platzieren Sie langen, stabilen Kontext dort, wo er konsistent wiederverwendet werden kann.
Long-Context-Preise ab 272K Token
GPT-5.5 hat ein großes Kontextfenster, aber Long-Context-Prompts erfordern eine separate Kostenplanung. Auf EvoLink gelten bei Input über 272K Token folgende Long-Context-Tarife:
| GPT-5.5 Stufe | Input | Output |
|---|---|---|
| Standard-Preis | $4,00 / 1M | $24,00 / 1M |
| Long-Context-Preis | $8,00 / 1M | $36,00 / 1M |
Der Long-Context-Tarif gilt für die gesamte Session, nicht nur für die Token über 272K. Wenn Sie 300K Input-Token senden, werden alle 300K zum Long-Context-Input-Tarif berechnet.
Long-Context-Kostenbeispiel
Ein Request mit 300K Input / 20K Output:
| Posten | Berechnung | Kosten |
|---|---|---|
| Input | 300K × $8,00 / 1M | $2,40 |
| Output | 20K × $36,00 / 1M | $0,72 |
| Gesamt | $2,40 + $0,72 | $3,12 |
Derselbe Request unter dem Long-Context-Schwellenwert würde im Standard-Tarif $1,68 kosten. Das heißt nicht, dass Sie immer aggressiv aufteilen sollten – es bedeutet, dass Sie abwägen müssen, ob ein vollständiger Kontext-Request den höheren Preis rechtfertigt.
GPT-5.5 API Kostenbeispiele
Nutzen Sie diese Beispiele als Planungsrichtwerte. Ihre tatsächliche Rechnung hängt von Prompt-Länge, Output-Länge, Cache-Trefferquote, Retries und der Erzeugung von Reasoning-Token ab.
| Szenario | Input | Output | Tarif | Geschätzte Kosten |
|---|---|---|---|---|
| Kundensupport-Antwort | 2K | 500 | Standard | $0,020 |
| Code-Review | 20K | 5K | Standard | $0,200 |
| Repository-Analyse | 300K | 20K | Long-Context | $3,120 |
Kostenrechnung:
- 2K Input + 500 Output =
(2.000 × $4 / 1M) + (500 × $24 / 1M)= $0,020 - 20K Input + 5K Output =
(20.000 × $4 / 1M) + (5.000 × $24 / 1M)= $0,200 - 300K Input + 20K Output =
(300.000 × $8 / 1M) + (20.000 × $36 / 1M)= $3,120
GPT-5.5 vs GPT-5.4 Preisvergleich
GPT-5.5 ist die Premium-Route. GPT-5.4 ist die kostengünstigere Flagship-Route. Hier nur ein kurzer Vergleich – eine vollständige Gegenüberstellung gehört in einen eigenen GPT-5.5 vs GPT-5.4 Artikel.
| Modell | Input | Output | Cached Input | Kontext |
|---|---|---|---|---|
| GPT-5.5 | $4,00 / 1M | $24,00 / 1M | $0,40 / 1M | 1M |
| GPT-5.4 | $2,00 / 1M | $12,00 / 1M | $0,20 / 1M | 1,05M |
Wählen Sie GPT-5.4, wenn Sie Long Context zu niedrigeren Kosten brauchen. Testen Sie GPT-5.5, wenn die Aufgabe Reasoning-intensiv, qualitätskritisch oder bei Fehlversuchen teuer ist.
Wann lohnt sich GPT-5.5?
GPT-5.5 ist nicht die Standardwahl für jeden Request. Es eignet sich am besten, wenn der Aufgabenwert die Premium-Preise rechtfertigt.
Gut geeignet
- Komplexes Reasoning, bei dem falsche Antworten teuer sind
- Analyse ganzer Codebases, Architektur-Reviews und Multi-File-Debugging
- Recherche-Synthese über viele Dokumente
- Agenten-Workflows, bei denen Planungsqualität Retries reduziert
- Hochwertige Outputs, die weniger manuelle Korrekturen erfordern
Weniger geeignet
- Einfache Klassifikation
- Massen-Zusammenfassungen
- Leichte Extraktion
- Content-Generierung mit geringer Marge
- Prototyping, bei dem ein günstigeres Modell ausreicht
Die praktische Regel ist einfach: GPT-5.5 nutzen, wenn besseres Reasoning Fehler, Retries oder manuelle Überprüfung reduzieren kann. Bei Routine-Aufgaben günstigere GPT-Routen verwenden.
GPT-5.5 API Kosten senken
1. Stabile Prompts cachen
Halten Sie System-Prompts, Policies, Tool-Beschreibungen und Dokumentationsblöcke über Requests hinweg stabil. Cached Input kostet $0,40 / 1M Token statt $4,00 / 1M.
2. Einfache Aufgaben an andere Modelle routen
Nicht jeden Request an GPT-5.5 senden. Einfache Aufgaben über günstigere GPT-Routen abwickeln und GPT-5.5 für Eskalation oder hochwertiges Reasoning reservieren.
def select_model(task_complexity: str) -> str:
if task_complexity == "simple":
return "gpt-5.1"
if task_complexity == "standard":
return "gpt-5.2"
if task_complexity == "long_context":
return "gpt-5.4"
return "gpt-5.5"3. Unnötige Long-Context-Requests vermeiden
Wenn Ihr Prompt nahe 272K Input-Token liegt, prüfen Sie, ob Retrieval, Zusammenfassung oder Chunking den Request verkleinern können, ohne die Antwortqualität zu beeinträchtigen.
4. Kosten pro erfolgreichem Task tracken
Kosten pro Token sind nur eine Metrik. Tracken Sie Retries, Validierungsfehler, manuelle Überprüfungszeit, Latenz und die endgültige Erfolgsrate. Ein teureres Modell kann günstiger sein, wenn es wiederholte Fehlversuche vermeidet – aber das muss in Ihrem eigenen Workflow gemessen werden.
5. GPT-5.5 als Eskalationsroute nutzen
Ein gängiges Muster: Mit GPT-5.2 oder GPT-5.4 starten und nur bei Validierungsfehlern, niedriger Konfidenz oder einer Nutzeranfrage nach tieferer Analyse auf GPT-5.5 eskalieren.
FAQ
Was kostet die GPT-5.5 API?
Auf EvoLink kostet GPT-5.5 $4,00 pro 1M Input-Token, $24,00 pro 1M Output-Token und $0,40 pro 1M Cached-Input-Token. Long-Context-Preise ab 272K Input-Token: $8,00 Input und $36,00 Output pro 1M Token.
Was kostet GPT-5.5 Cached Input?
GPT-5.5 Cached Input kostet auf EvoLink $0,40 pro 1M Token. Cached Input lohnt sich, wenn Ihre Anwendung stabile Anweisungen, Dokumentation, Tool-Definitionen oder Gesprächsvorlagen wiederholt sendet.
Was passiert bei mehr als 272K Input-Token?
Bei Input über 272K Token greift auf EvoLink der GPT-5.5 Long-Context-Tarif: $8,00 pro 1M Input-Token und $36,00 pro 1M Output-Token. Der Long-Context-Tarif gilt für die gesamte Session.
Ist GPT-5.5 teurer als GPT-5.4?
Ja. GPT-5.5 kostet auf EvoLink $4,00 / $24,00 pro 1M Input-/Output-Token, GPT-5.4 $2,00 / $12,00.
Lohnt sich GPT-5.5 für Programmierung?
Für komplexe Coding-Aufgaben wie Multi-File-Debugging, Repository-Analyse, Architektur-Reviews und agentische Coding-Workflows ist GPT-5.5 einen Test wert. Für einfache Code-Vervollständigung oder kleine Änderungen ist eine günstigere GPT-Route oft effizienter.
Kann ich GPT-5.5 mit einer OpenAI-kompatiblen API nutzen?
Ja. EvoLink bietet einen OpenAI-kompatiblen Integrationspfad. Die meisten Teams müssen nur Base-URL, API-Key und Modellwert ändern.
from openai import OpenAI
client = OpenAI(
api_key="your-evolink-api-key",
base_url="https://api.evolink.ai/v1"
)
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{"role": "user", "content": "Fasse die Hauptrisiken in dieser Codebase zusammen."}
]
)Wo kann ich GPT-5.5 mit anderen GPT-Modellen vergleichen?
Erst Preise verstehen, dann im eigenen Workflow testen
GPT-5.5 ist eine Premium-Route. Die richtige Frage ist nicht nur „Was kostet ein Token?", sondern „Was kostet ein erfolgreich abgeschlossener Task?"
Starten Sie mit einem kleinen Testset, messen Sie Retries und Review-Zeit, vergleichen Sie GPT-5.5 mit GPT-5.4 oder GPT-5.2, und reservieren Sie GPT-5.5 für die Workflows, bei denen es das Ergebnis verändert.


