Seedance 2.0 API — Coming SoonGet early access

GPT-5.1 Serie (API)

Greifen Sie über EvoLinks einheitliches API-Gateway auf die GPT-5.1-Modellfamilie zu. GPT-5.1 unterstützt 400k Kontext, 128k maximale Output-Tokens und einen Wissensstand vom 30. Sep 2024. Aktivieren Sie Streaming, Function Calling, Structured Outputs und Prompt Caching, sofern Ihr Account und Endpunkt dies unterstützen.

Run With API
Using coding CLIs? Run GPT-5.1 via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
GPT-5.1400.0K128.0K
$1.00-20%
$1.25Official Price
$8.00-20%
$10.00Official Price
$0.104-17%
$0.125Official Price
GPT-5.1 (Beta)400.0K128.0K
$0.325-74%
$1.25Official Price
$2.60-74%
$10.00Official Price
$0.033-74%
$0.125Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run GPT-5.1 — pick the tier that matches your workload.

  • · GPT-5.1: the default tier for production reliability and predictable availability.
  • · GPT-5.1 (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Mit GPT-5.1 API bauen — produktionsreife Intelligenz

Nutzen Sie die GPT-5.1 API für verlässliche Chat-Performance, Tool-Workflows und skalierbare Long-Context-Aufgaben. Integrieren Sie via Responses oder Chat Completions, aktivieren Sie Streaming und Structured Outputs, und pinnen Sie Snapshots für Release-Stabilität.

GPT-5.1 API Visualisierung

Was kann die GPT-5.1 API leisten?

Massive Kontextanalyse

Verarbeiten Sie größere Eingaben und längere Gesprächsverläufe mit dem 400k-Kontextfenster und bis zu 128k Output-Tokens. Ideal für Repo-Reviews, lange Dokumente oder mehrstufige Recherche ohne fragiles Chunking.

Large context processing

Fortgeschrittenes Reasoning

Für Aufgaben mit mehrstufigem Denken—Planung, Coding-Assistenz und Entscheidungsunterstützung—nutzen Sie konfigurierbaren Reasoning-Effort. GPT-5.1 unterstützt none, low, medium und high, damit Sie Geschwindigkeit, Kosten und Tiefe balancieren können.

Advanced reasoning

Prompt Caching

Prompt Caching aktiviert sich automatisch für Prompts ab 1.024 Tokens. Nutzen Sie stabile Präfixe (System-Prompts, Policies, Few-shot), und wählen Sie in_memory oder 24h, um wiederholte Verarbeitung zu reduzieren und den Durchsatz zu erhöhen.

Cost optimization

Warum Entwickler die GPT-5.1 API wählen

GPT-5.1 ist eine Modellfamilie mit Snapshots und Aliases – für stabiles Produktionsverhalten und klare Upgrade-Pfade.

Modellfamilien-Design

Nutzen Sie chat- oder code-orientierte Aliases wie gpt-5.1-chat-latest oder gpt-5.1-codex (falls verfügbar) und behalten Sie eine konsistente API-Oberfläche.

Praktische Long-Context-Workflows

Ein 400k-Kontextfenster mit bis zu 128k Output-Tokens hält Aufgaben kohärent und reduziert den Bedarf komplexer Chunking-Pipelines.

API-Features für Produktion

Streaming, Function Calling, Structured Outputs und Prompt Caching werden von GPT-5.1 unterstützt – passend für reale Produktionssysteme.

So integrieren Sie die GPT-5.1 API

Starten Sie mit GPT-5.1 über EvoLinks Gateway in drei Schritten.

1

Schritt 1 — API-Key erhalten

Account erstellen, API-Key generieren und Umgebungsvariablen konfigurieren. Der Zugriff auf bestimmte GPT-5.1-Varianten kann vom Usage-Tier und der Organisationsverifizierung abhängen.

2

Schritt 2 — Client konfigurieren

Nutzen Sie Ihr bevorzugtes SDK oder direkte HTTP-Calls. Setzen Sie die Base-URL auf Ihren Gateway-Endpunkt und wählen Sie Responses oder Chat Completions. Übergeben Sie den gewünschten Modell-Alias (z. B. gpt-5.1 oder gpt-5.1-chat-latest).

3

Schritt 3 — Starten

Senden Sie zuerst einen kleinen Test-Request und aktivieren Sie anschließend Streaming, Function Calling, Structured Outputs oder Caching. Prüfen Sie Usage-Felder wie prompt_tokens_details.cached_tokens, um das Verhalten zu validieren.

Zentrale API-Funktionen

Technische Spezifikationen der GPT-5.1 API

Kapazität

Langer Kontext (wenn verfügbar)

GPT-5.1 listet ein 400k-Kontextfenster und bis zu 128k Output-Tokens mit Wissensstand vom 30. Sep 2024.

Effizienz

Prompt Caching (wenn unterstützt)

Automatisches Caching für Prompts >= 1.024 Tokens mit exaktem Präfix-Match. Verwenden Sie prompt_cache_retention in_memory oder 24h.

Intelligenz

Reasoning-orientierte Varianten

Konfigurierbarer Reasoning-Effort (none, low, medium, high) ermöglicht den Trade-off zwischen Geschwindigkeit, Kosten und Tiefe pro Anfrage.

Integration

Function / Tool Calling

Definieren Sie JSON-Schema-Tools und routen Sie strukturierte Aufrufe in Ihre Systeme über Endpunkte wie Responses und Chat Completions.

Zuverlässigkeit

Structured Outputs (wenn verfügbar)

Schema-konforme JSON-Antworten werden von GPT-5.1 unterstützt; prüfen Sie die Endpoint-Unterstützung für strukturierte Formate.

Performance

Streaming

Streamen Sie Token-Teilergebnisse für responsive UIs über unterstützte Endpunkte wie Responses oder Realtime.

GPT-5.1 API – FAQ

Everything you need to know about the product and billing.

OpenAI nennt ein 400.000-Token-Kontextfenster und bis zu 128.000 Output-Tokens für GPT-5.1 sowie einen Wissensstand vom 30. Sep 2024. Nutzen Sie Ihr Dashboard und die Modelldoku als maßgebliche Quelle für Ihren Account.
Prompt Caching ist automatisch für Prompts ab 1.024 Tokens und funktioniert nur bei exakten Präfix-Matches. Setzen Sie prompt_cache_retention auf in_memory oder 24h. Gecachte Tokens erscheinen in usage.prompt_tokens_details.cached_tokens, und Caches sind auf Ihre Organisation begrenzt.
GPT-5.1 unterstützt reasoning.effort mit none (Standard), low, medium und high. Nutzen Sie geringeren Effort für Latenz-sensible Tasks und höheren Effort für tieferes, mehrstufiges Reasoning.
Ja. GPT-5.1 unterstützt Streaming, Function Calling und Structured Outputs. Verfügbarkeit besteht über Endpunkte wie Responses, Chat Completions, Realtime, Assistants und Batch, abhängig von Account und Endpoint.
Cache-Hits erfordern exakte Präfix-Matches. Platzieren Sie statische Anweisungen und Beispiele am Anfang, dynamische Nutzerdaten ans Ende, und halten Sie Tool-Definitionen identisch. Zusätzlich können Sie prompt_cache_key nutzen, um Routing zu beeinflussen und Cache-Hits für geteilte Präfixe zu erhöhen.
Structured Outputs erzwingen JSON-Schema-Konformität, und GPT-5.1 listet diese Funktion als unterstützt. Die Verfügbarkeit kann vom Endpunkt abhängen; prüfen Sie die Modelldoku für Ihren Account.
Nutzen Sie Snapshot-Modelle, um eine spezifische Version zu pinnen, statt den Latest-Alias zu verwenden. Die GPT-5.1-Seite listet Snapshot-IDs wie gpt-5.1-2025-11-13.
OpenAI listet GPT-5.1-Preise pro 1 Mio. Tokens für Input, gecachten Input und Output (z. B. $1,25 / $0,125 / $10,00). Die tatsächlichen Preise über EvoLink können je nach Routing, Plan und Rabatten variieren – prüfen Sie daher die Preistabelle und Ihre Dashboard-Daten als Quelle der Wahrheit.