Seedance 2.0 API — Coming SoonGet early access

Gemini 3.0 Pro Preview API

Greifen Sie über EvoLinks OpenAI‑kompatiblen /v1/chat/completions‑Endpoint auf gemini-3-pro-preview zu. Für Coding, multimodales Reasoning und Tool Use mit detaillierter Token‑Abrechnung.

Run With API
Using coding CLIs? Run Gemini 3 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
Gemini 3 Pro1.05M65.5K
200.0K$1.600-20%
$2.00Official Price
>200.0K$3.200-20%
$4.00Official Price
200.0K$9.60-20%
$12.00Official Price
>200.0K$14.40-20%
$18.00Official Price
200.0K$0.160-20%
$0.200Official Price
>200.0K$0.319-20%
$0.400Official Price
Gemini 3 Pro (Beta)1.05M65.5K
200.0K$0.520-74%
$2.00Official Price
>200.0K$1.04-74%
$4.00Official Price
200.0K$3.12-74%
$12.00Official Price
>200.0K$4.68-74%
$18.00Official Price
200.0K$0.052-74%
$0.200Official Price
>200.0K$0.104-74%
$0.400Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run Gemini 3 Pro — pick the tier that matches your workload.

  • · Gemini 3 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 3 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 3.0 Pro Preview API — OpenAI SDK‑kompatibel

Rufen Sie gemini-3-pro-preview im OpenAI SDK‑Format über EvoLink auf. Erhalten Sie Usage plus reasoning_tokens und nutzen Sie ein in Tests berichtetes 1M‑Kontextfenster.

Beispiel 1

Funktionen der Gemini 3.0 Pro Preview API

Multimodale Inputs + Grounding

Gemini 3 Pro Preview akzeptiert Text, Code, Bild, Video, Audio und PDF als Input mit Text‑Output und unterstützt Search Grounding plus URL‑Kontext für verifizierbare Antworten.

Beispiel 2

Thinking + Agent Tools

Thinking, Function Calling, Structured Outputs, Code Execution und File Search werden für agentisches Reasoning und Automation unterstützt.

Beispiel 3

1M Kontext + Ops Controls

Input‑Limit 1.048.576 Tokens mit bis zu 65.536 Output‑Tokens. Caching und Batch API unterstützen Long‑Context‑Pipelines.

Beispiel 4

Warum Gemini 3.0 Pro auf EvoLink

EvoLink stellt Gemini 3.0 Pro Preview über einen vertrauten OpenAI‑SDK‑Endpoint bereit, mit klarer Auth und detaillierten Usage‑Stats für Production‑Tracking.

OpenAI SDK‑Format

Rufen Sie /v1/chat/completions mit model + messages auf. Das messages‑Array ist erforderlich (min. Länge 1).

Granulare Usage‑Metriken

Usage umfasst prompt_tokens, completion_tokens, total_tokens sowie completion_tokens_details.reasoning_tokens.

Model Quality Signal

Vercel berichtet stärkere Instruction‑Following, konsistentere Antworten und gute Ergebnisse in Next.js‑Evaluierungen.

So rufen Sie Gemini 3.0 Pro Preview auf

Nutzen Sie das OpenAI‑SDK‑Format und den Model‑String gemini-3-pro-preview.

1

Schritt 1 - Modell setzen

Verwenden Sie model: "gemini-3-pro-preview" im Request‑Body.

2

Schritt 2 - Messages senden

Übergeben Sie ein messages‑Array mit role/content‑Pairs (min. Länge 1).

3

Schritt 3 - Output + Usage prüfen

Lesen Sie choices[0].message.content und tracken Sie usage.prompt_tokens, completion_tokens und reasoning_tokens.

Technische Specs

Schlüsseldetails zur Gemini 3.0 Pro Preview API

Kompatibilität

OpenAI SDK‑Format

Standard‑Interface /v1/chat/completions verwenden.

Modell

Model‑String

Für diesen Endpoint model auf gemini-3-pro-preview setzen.

Analytics

Usage‑Breakdown

Response enthält Prompt/Completion‑Totals plus detaillierte Token‑Kategorien.

Reasoning

Reasoning Tokens

completion_tokens_details enthält reasoning_tokens für tiefere Analyse.

Multimodal

Multimodaler Fokus

Vercel nennt stärkeres multimodales Reasoning und Tool Use in Tests.

Kontext

1M Kontextfenster

Vercel berichtet ein 1M‑Kontextfenster für lange Agent‑Flows.

Gemini 3.0 Pro API FAQs

Everything you need to know about the product and billing.

Gemini 3 ist Googles neueste multimodale Modellfamilie. Diese Seite fokussiert Gemini 3 Pro Preview (Model‑Code: gemini-3-pro-preview), das Text, Bild, Video, Audio und PDF als Input mit Text‑Output unterstützt, plus Thinking, Function Calling, Structured Outputs, Code Execution, File Search, Search Grounding, URL‑Kontext, Caching und Batch API. Google nennt einen Wissensstand Januar 2025 für dieses Preview‑Modell.
Verwenden Sie "gemini-3-pro-preview" als model‑Wert für die Gemini 3 Pro Preview API auf EvoLink. Das ist der empfohlene Model‑String für den OpenAI‑kompatiblen Chat‑Completions‑Endpoint.
Senden Sie POST an api.evolink.ai/v1/chat/completions. Setzen Sie Authorization: Bearer <token> und Content-Type: application/json mit einem API‑Key aus dem EvoLink‑Dashboard.
OpenAI SDK Chat Completions Format mit model und einem erforderlichen messages‑Array (min. Länge 1). Jede Message nutzt role/content‑Paare; multimodale Inputs können als Content‑Parts gesendet werden. Optionen: stream, max_tokens, temperature.
Inputs: Text, Bild, Video, Audio, PDF. Output: nur Text. Bild‑ oder Audio‑Generierung wird in diesem Gemini 3 Pro Preview‑Modell nicht unterstützt.
Input‑Limit 1.048.576 (1M Kontext) und max Output‑Tokens 65.536. Unterstützt lange Dokumente und Multi‑Turn‑Kontexte.
Thinking, Function Calling, Structured Outputs, Code Execution, File Search, Search Grounding, URL‑Kontext, Caching und Batch API. Für URL‑Kontext ist Function Calling mit Tool Use derzeit nicht unterstützt; bis zu 20 URLs mit max 34 MB pro URL.
EvoLink‑Responses enthalten usage.prompt_tokens, completion_tokens, total_tokens sowie prompt_tokens_details und completion_tokens_details.reasoning_tokens. Nutzen Sie diese Felder, um Kosten, Latenz und Reasoning‑Tokens zu überwachen.