Gemini 2.5 Pro API
Gemini 2.5 Pro bietet Teams ein Long-Context-Reasoning-Modell für Deep Analysis, Code Review und komplexe Planung. Mit Gemini 2.5 Pro auf EvoLink routen Sie Requests mit einem API-Key, tracken Usage pro Projekt und behalten Compliance-freundliche Controls für Produktions-Apps.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT |
|---|---|---|---|---|
| Gemini 2.5 Pro | 1.05M | 65.5K | ≤200.0K$1.00-20% $1.25Official Price >200.0K$2.00-20% $2.50Official Price | ≤200.0K$8.00-20% $10.00Official Price >200.0K$12.000-20% $15.00Official Price |
| Gemini 2.5 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.325-74% $1.25Official Price >200.0K$0.650-74% $2.50Official Price | ≤200.0K$2.60-74% $10.00Official Price >200.0K$3.90-74% $15.00Official Price |
Pricing Note: Price unit: USD / 1M tokens
Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.
- · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
- · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 2.5 Pro für Long-Context-Reasoning und Tool Use
Gemini 2.5 Pro unterstützt bis zu etwa eine Million Input-Tokens und Text-Output, sodass lange Dateien, PDFs und Multi-Turn-Workflows in einer Konversation bleiben. Nutzen Sie multimodale Inputs und strukturierte Outputs, um großen Kontext in zuverlässige Aktionen zu übersetzen.

Wobei kann Gemini 2.5 Pro helfen?
Long-Context-Verständnis
Gemini 2.5 Pro kann große Dokumente, Codebasen und PDFs in einer Anfrage lesen und die Intention über lange Konversationen hinweg konsistent halten. Laden Sie Policies, Specs und Chat-Historie, dann fordern Sie Summaries, Risk Checks oder Entscheidungen an – ohne schweres Chunking oder ständiges Re-Prompting.

Multimodale Analyse
Gemini 2.5 Pro akzeptiert Text-, Bild-, Audio-, Video- und PDF-Inputs und liefert klare Textantworten. So können Sie Meeting-Audio mit Slides kombinieren, Screenshots an Bug-Reports hängen oder ein Vertrags-PDF für eine Risiko-Zusammenfassung in einem Flow anfragen.

Strukturierte Workflows
Gemini 2.5 Pro unterstützt Function Calling, Structured Outputs, URL Context und File Search, sodass Ihre App von Insight zu Action kommt. Nutzen Sie JSON-förmige Responses für Extraktion, Freigaben oder Routing und verankern Sie Ergebnisse mit Search oder Maps, wenn Genauigkeit entscheidend ist.

Warum Teams dieses Modell wählen
Teams wählen Gemini 2.5 Pro für Long-Context-Reasoning, multimodale Inputs und produktionsreife Controls wie strukturierte Outputs und Grounding – und nutzen es auf EvoLink über OpenAI-kompatible oder native Gemini-Endpoints.
Long-Context-Confidence
Bis zu 1.048.576 Input-Tokens und 65.536 Output-Tokens halten große Dokumente und lange Historien in einer Anfrage.
Zuverlässige Struktur
Function Calling und strukturierte Outputs erzeugen konsistentes JSON für Automation und Downstream-Systeme.
Operative Klarheit
Caching und Batch-API reduzieren Kosten bei wiederholten Workloads, während Search- oder Maps-Grounding das Vertrauen erhöht.
So nutzen Sie Gemini 2.5 Pro
Nutzen Sie Gemini 2.5 Pro über EvoLink entweder per OpenAI SDK-Kompatibilität oder über den nativen Gemini-Endpoint.
Schritt 1 - Kontext vorbereiten
Sammeln Sie die benötigten Dateien, Links oder Transkripte und fragen Sie zuerst nach Outline oder Summary, bevor Sie tief analysieren.
Schritt 2 - API-Format wählen
Rufen Sie /v1/chat/completions für OpenAI-SDK-Kompatibilität auf oder nutzen Sie /v1beta/models/gemini-2.5-pro:{method} für native Gemini-Features.
Schritt 3 - Generieren, prüfen, verbessern
Bewerten Sie Outputs, fügen Sie Constraints hinzu und cachen Sie wiederholte Kontextblöcke, um Kosten bei großen, wiederkehrenden Jobs zu senken.
Zentrale Fähigkeiten
Gebaut für langes, zuverlässiges Reasoning
1M-Class Context Window
Gemini 2.5 Pro unterstützt bis zu 1.048.576 Input-Tokens und bis zu 65.536 Output-Tokens, sodass lange Dokumente und Multi-Step-Arbeit in einer Anfrage bleiben.
Multimodale Inputs
Dieses Modell akzeptiert Text-, Bild-, Audio-, Video- und PDF-Inputs und liefert Text-Output, der sich leicht speichern, durchsuchen oder an andere Systeme weitergeben lässt.
Strukturierte Outputs und Tools
Erhalten Sie Function Calling und strukturierte Outputs, um Antworten als JSON zu formatieren, damit Workflows Ergebnisse parsen, Aktionen auslösen und fragiles Post-Processing vermeiden können.
Grounding und URL Context
Nutzen Sie Search Grounding, Maps Grounding, URL Context und File Search, um Genauigkeit zu erhöhen und Halluzinationen zu reduzieren, wenn Faktenpräzision zählt.
Caching und Batch-Support
Caching wird für wiederholte Long-Context-Prompts unterstützt, und Batch-API-Support ermöglicht effiziente Verarbeitung großer Queues, wenn Latenz weniger wichtig ist als Durchsatz.
Reasoning mit bekannten Limits
Dieses Modell hat einen Knowledge Cutoff im Januar 2025, daher kombinieren Sie es mit Grounding oder frischen Quellen, wenn Sie aktuelle Informationen brauchen.
Häufige Fragen
Everything you need to know about the product and billing.