Seedance 2.0 API — Coming SoonGet early access

Gemini 2.5 Pro API

Gemini 2.5 Pro bietet Teams ein Long-Context-Reasoning-Modell für Deep Analysis, Code Review und komplexe Planung. Mit Gemini 2.5 Pro auf EvoLink routen Sie Requests mit einem API-Key, tracken Usage pro Projekt und behalten Compliance-freundliche Controls für Produktions-Apps.

Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUT
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25Official Price
>200.0K$2.00-20%
$2.50Official Price
200.0K$8.00-20%
$10.00Official Price
>200.0K$12.000-20%
$15.00Official Price
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25Official Price
>200.0K$0.650-74%
$2.50Official Price
200.0K$2.60-74%
$10.00Official Price
>200.0K$3.90-74%
$15.00Official Price

Pricing Note: Price unit: USD / 1M tokens

Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.

  • · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 2.5 Pro für Long-Context-Reasoning und Tool Use

Gemini 2.5 Pro unterstützt bis zu etwa eine Million Input-Tokens und Text-Output, sodass lange Dateien, PDFs und Multi-Turn-Workflows in einer Konversation bleiben. Nutzen Sie multimodale Inputs und strukturierte Outputs, um großen Kontext in zuverlässige Aktionen zu übersetzen.

Hero-Showcase eines KI-Modell-Features 1

Wobei kann Gemini 2.5 Pro helfen?

Long-Context-Verständnis

Gemini 2.5 Pro kann große Dokumente, Codebasen und PDFs in einer Anfrage lesen und die Intention über lange Konversationen hinweg konsistent halten. Laden Sie Policies, Specs und Chat-Historie, dann fordern Sie Summaries, Risk Checks oder Entscheidungen an – ohne schweres Chunking oder ständiges Re-Prompting.

Context-Showcase eines KI-Modell-Features 2

Multimodale Analyse

Gemini 2.5 Pro akzeptiert Text-, Bild-, Audio-, Video- und PDF-Inputs und liefert klare Textantworten. So können Sie Meeting-Audio mit Slides kombinieren, Screenshots an Bug-Reports hängen oder ein Vertrags-PDF für eine Risiko-Zusammenfassung in einem Flow anfragen.

Multimodal-Showcase eines KI-Modell-Features 3

Strukturierte Workflows

Gemini 2.5 Pro unterstützt Function Calling, Structured Outputs, URL Context und File Search, sodass Ihre App von Insight zu Action kommt. Nutzen Sie JSON-förmige Responses für Extraktion, Freigaben oder Routing und verankern Sie Ergebnisse mit Search oder Maps, wenn Genauigkeit entscheidend ist.

Workflow-Showcase eines KI-Modell-Features 4

Warum Teams dieses Modell wählen

Teams wählen Gemini 2.5 Pro für Long-Context-Reasoning, multimodale Inputs und produktionsreife Controls wie strukturierte Outputs und Grounding – und nutzen es auf EvoLink über OpenAI-kompatible oder native Gemini-Endpoints.

Long-Context-Confidence

Bis zu 1.048.576 Input-Tokens und 65.536 Output-Tokens halten große Dokumente und lange Historien in einer Anfrage.

Zuverlässige Struktur

Function Calling und strukturierte Outputs erzeugen konsistentes JSON für Automation und Downstream-Systeme.

Operative Klarheit

Caching und Batch-API reduzieren Kosten bei wiederholten Workloads, während Search- oder Maps-Grounding das Vertrauen erhöht.

So nutzen Sie Gemini 2.5 Pro

Nutzen Sie Gemini 2.5 Pro über EvoLink entweder per OpenAI SDK-Kompatibilität oder über den nativen Gemini-Endpoint.

1

Schritt 1 - Kontext vorbereiten

Sammeln Sie die benötigten Dateien, Links oder Transkripte und fragen Sie zuerst nach Outline oder Summary, bevor Sie tief analysieren.

2

Schritt 2 - API-Format wählen

Rufen Sie /v1/chat/completions für OpenAI-SDK-Kompatibilität auf oder nutzen Sie /v1beta/models/gemini-2.5-pro:{method} für native Gemini-Features.

3

Schritt 3 - Generieren, prüfen, verbessern

Bewerten Sie Outputs, fügen Sie Constraints hinzu und cachen Sie wiederholte Kontextblöcke, um Kosten bei großen, wiederkehrenden Jobs zu senken.

Zentrale Fähigkeiten

Gebaut für langes, zuverlässiges Reasoning

Context

1M-Class Context Window

Gemini 2.5 Pro unterstützt bis zu 1.048.576 Input-Tokens und bis zu 65.536 Output-Tokens, sodass lange Dokumente und Multi-Step-Arbeit in einer Anfrage bleiben.

Multimodal

Multimodale Inputs

Dieses Modell akzeptiert Text-, Bild-, Audio-, Video- und PDF-Inputs und liefert Text-Output, der sich leicht speichern, durchsuchen oder an andere Systeme weitergeben lässt.

Tools

Strukturierte Outputs und Tools

Erhalten Sie Function Calling und strukturierte Outputs, um Antworten als JSON zu formatieren, damit Workflows Ergebnisse parsen, Aktionen auslösen und fragiles Post-Processing vermeiden können.

Grounding

Grounding und URL Context

Nutzen Sie Search Grounding, Maps Grounding, URL Context und File Search, um Genauigkeit zu erhöhen und Halluzinationen zu reduzieren, wenn Faktenpräzision zählt.

Efficiency

Caching und Batch-Support

Caching wird für wiederholte Long-Context-Prompts unterstützt, und Batch-API-Support ermöglicht effiziente Verarbeitung großer Queues, wenn Latenz weniger wichtig ist als Durchsatz.

Trust

Reasoning mit bekannten Limits

Dieses Modell hat einen Knowledge Cutoff im Januar 2025, daher kombinieren Sie es mit Grounding oder frischen Quellen, wenn Sie aktuelle Informationen brauchen.

Häufige Fragen

Everything you need to know about the product and billing.

Gemini 2.5 Pro ist am stärksten, wenn Sie tiefes Reasoning über langen Kontext brauchen, etwa bei Multi-Dokument-Reviews, komplexer Code-Analyse oder Planung mit vielen Constraints. Weil das Modell große Prompts akzeptiert, können Sie Policies, Specs und historischen Kontext zusammenhalten und eine einzige, kohärente Antwort anfordern. Es eignet sich auch für multimodale Workflows, bei denen Text mit Bildern, Audio, Video oder PDFs kombiniert werden muss. Für Produktions-Apps halten strukturierte Outputs die Ergebnisse konsistent.
Gemini 2.5 Pro unterstützt ein Input-Limit von bis zu 1.048.576 Tokens und ein Output-Limit von bis zu 65.536 Tokens. Praktisch bedeutet das, dass sehr große Dokumente, lange Chat-Historien oder kombinierte Medieninputs in einer Anfrage möglich sind. Wenn Sie ans Maximum gehen, planen Sie höhere Antwortzeiten und Kosten ein. Für den Alltag bleiben viele Teams unter dem Limit und nutzen den zusätzlichen Spielraum, um Chunking zu reduzieren und Kontinuität zu bewahren.
Gemini 2.5 Pro akzeptiert Text-, Bild-, Audio-, Video- und PDF-Inputs und liefert Text-Output. Das macht das Modell praktisch für Workflows wie PDF-Zusammenfassung, Insights aus Meeting-Aufzeichnungen oder das Erklären eines Videoclips in Klartext. Da der Output nur Text ist, lässt er sich leicht speichern, durchsuchen oder an Analytics- und Business-Systeme weitergeben. Wenn Sie multimodale Outputs benötigen, können Sie es mit spezialisierten Media-Modellen in EvoLink kombinieren.
Ja. Gemini 2.5 Pro unterstützt Function Calling und strukturierte Outputs, sodass Sie JSON-förmige Responses für konsistente Datenextraktion und Routing anfordern können. Das ist hilfreich, wenn Gemini 2.5 Pro ein Formular befüllen, Tickets klassifizieren oder strukturierte Summaries für Dashboards liefern soll. Sie können die benötigten Felder definieren, Outputs leichter validieren und manuellen Cleanup reduzieren. Für High-Stakes-Workflows kombinieren Sie strukturierte Outputs mit Grounding, um die Zuverlässigkeit zu erhöhen.
Gemini 2.5 Pro unterstützt URL Context und File Search sowie Grounding-Optionen wie Search oder Maps Grounding. So kann Gemini 2.5 Pro spezifische Quellen referenzieren, Seiten verlinken und Antworten in abrufbarem Material verankern. Wenn Sie vertrauenswürdige Ergebnisse brauchen, geben Sie die Quellen vor, bitten Sie um Zitate und halten Sie Prompts fokussiert. Grounding ist besonders hilfreich für Policy-, Compliance- und Customer-Support-Szenarien, in denen Genauigkeit zählt.
EvoLink bietet zwei Wege: einen OpenAI-SDK-kompatiblen Endpoint unter /v1/chat/completions und einen nativen Gemini-Endpoint unter /v1beta/models/gemini-2.5-pro:{method}. Gemini 2.5 Pro funktioniert mit beiden Optionen, sodass Sie bestehende OpenAI-Style-Tools behalten oder das native Format für Gemini-spezifische Features nutzen können. Beide Flows verwenden Bearer-Token-Auth und können streamen; der native Endpoint unterstützt zudem Async-Modus mit dem Header X-Async-Mode.
Google veröffentlicht offizielle Preise für die Gemini-2.5-Pro-API mit Standard-Tiers, die je nach Prompt-Größe variieren. Laut Google kosten Prompts bis 200k Tokens 1,25 USD pro 1 Mio. Input-Tokens und 10 USD pro 1 Mio. Output-Tokens; größere Prompts sind teurer, Caching und Storage haben separate Raten. EvoLink-Usage hängt von Routing und Plan ab, prüfen Sie daher Ihr Dashboard für die genauesten Preise und Kostenkontrollen.
Gemini 2.5 Pro nennt einen Knowledge Cutoff im Januar 2025, daher kennt es sehr aktuelle Ereignisse oder Änderungen möglicherweise nicht. Wenn Aktualität wichtig ist, nutzen Sie Gemini 2.5 Pro mit URL Context, File Uploads oder Grounding, damit das Modell auf aktuelle Quellen zurückgreifen kann. Sie können es auch bitten, zitierte Fakten von Annahmen zu trennen, was Reviews bei der Verifikation hilft. Dieser Ansatz hält Antworten nützlich und nutzt dennoch die Long-Context-Stärken des Modells.