Gemini 3.0 Pro Preview API
Greifen Sie über EvoLinks OpenAI‑kompatiblen /v1/chat/completions‑Endpoint auf gemini-3-pro-preview zu. Für Coding, multimodales Reasoning und Tool Use mit detaillierter Token‑Abrechnung.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT | CACHE READ |
|---|---|---|---|---|---|
| Gemini 3 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% $2.00Official Price >200.0K$3.200-20% $4.00Official Price | ≤200.0K$9.60-20% $12.00Official Price >200.0K$14.40-20% $18.00Official Price | ≤200.0K$0.160-20% $0.200Official Price >200.0K$0.319-20% $0.400Official Price |
| Gemini 3 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% $2.00Official Price >200.0K$1.04-74% $4.00Official Price | ≤200.0K$3.12-74% $12.00Official Price >200.0K$4.68-74% $18.00Official Price | ≤200.0K$0.052-74% $0.200Official Price >200.0K$0.104-74% $0.400Official Price |
Pricing Note: Price unit: USD / 1M tokens
Cache Hit: Price applies to cached prompt tokens.
Two ways to run Gemini 3 Pro — pick the tier that matches your workload.
- · Gemini 3 Pro: the default tier for production reliability and predictable availability.
- · Gemini 3 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 3.0 Pro Preview API — OpenAI SDK‑kompatibel
Rufen Sie gemini-3-pro-preview im OpenAI SDK‑Format über EvoLink auf. Erhalten Sie Usage plus reasoning_tokens und nutzen Sie ein in Tests berichtetes 1M‑Kontextfenster.

Funktionen der Gemini 3.0 Pro Preview API
Multimodale Inputs + Grounding
Gemini 3 Pro Preview akzeptiert Text, Code, Bild, Video, Audio und PDF als Input mit Text‑Output und unterstützt Search Grounding plus URL‑Kontext für verifizierbare Antworten.

Thinking + Agent Tools
Thinking, Function Calling, Structured Outputs, Code Execution und File Search werden für agentisches Reasoning und Automation unterstützt.

1M Kontext + Ops Controls
Input‑Limit 1.048.576 Tokens mit bis zu 65.536 Output‑Tokens. Caching und Batch API unterstützen Long‑Context‑Pipelines.

Warum Gemini 3.0 Pro auf EvoLink
EvoLink stellt Gemini 3.0 Pro Preview über einen vertrauten OpenAI‑SDK‑Endpoint bereit, mit klarer Auth und detaillierten Usage‑Stats für Production‑Tracking.
OpenAI SDK‑Format
Rufen Sie /v1/chat/completions mit model + messages auf. Das messages‑Array ist erforderlich (min. Länge 1).
Granulare Usage‑Metriken
Usage umfasst prompt_tokens, completion_tokens, total_tokens sowie completion_tokens_details.reasoning_tokens.
Model Quality Signal
Vercel berichtet stärkere Instruction‑Following, konsistentere Antworten und gute Ergebnisse in Next.js‑Evaluierungen.
So rufen Sie Gemini 3.0 Pro Preview auf
Nutzen Sie das OpenAI‑SDK‑Format und den Model‑String gemini-3-pro-preview.
Schritt 1 - Modell setzen
Verwenden Sie model: "gemini-3-pro-preview" im Request‑Body.
Schritt 2 - Messages senden
Übergeben Sie ein messages‑Array mit role/content‑Pairs (min. Länge 1).
Schritt 3 - Output + Usage prüfen
Lesen Sie choices[0].message.content und tracken Sie usage.prompt_tokens, completion_tokens und reasoning_tokens.
Technische Specs
Schlüsseldetails zur Gemini 3.0 Pro Preview API
OpenAI SDK‑Format
Standard‑Interface /v1/chat/completions verwenden.
Model‑String
Für diesen Endpoint model auf gemini-3-pro-preview setzen.
Usage‑Breakdown
Response enthält Prompt/Completion‑Totals plus detaillierte Token‑Kategorien.
Reasoning Tokens
completion_tokens_details enthält reasoning_tokens für tiefere Analyse.
Multimodaler Fokus
Vercel nennt stärkeres multimodales Reasoning und Tool Use in Tests.
1M Kontextfenster
Vercel berichtet ein 1M‑Kontextfenster für lange Agent‑Flows.
Gemini 3.0 Pro API FAQs
Everything you need to know about the product and billing.