HappyHorse 1.0 kommt baldMehr erfahren

Gemini 3.1 Pro Preview API

Greifen Sie über EvoLinks OpenAI‑kompatiblen /v1/chat/completions‑Endpoint auf gemini-3.1-pro-preview zu. Für Coding, multimodales Reasoning und Tool Use mit detaillierter Token‑Abrechnung.
Preis: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

Höchste Stabilität mit garantierter 99,9% Verfügbarkeit. Empfohlen für Produktionsumgebungen.

Für alle Versionen wird derselbe API-Endpunkt verwendet. Nur der model-Parameter unterscheidet sich.

Gemini 3.1 Pro Preview API — OpenAI SDK‑kompatibel

Rufen Sie gemini-3.1-pro-preview im OpenAI SDK‑Format über EvoLink auf. Erhalten Sie Usage plus reasoning_tokens und nutzen Sie ein in Tests berichtetes 1M‑Kontextfenster.

Beispiel 1

Funktionen der Gemini 3.1 Pro Preview API

Multimodale Inputs + Grounding

Gemini 3.1 Pro Preview akzeptiert Text, Code, Bild, Video, Audio und PDF als Input mit Text‑Output und unterstützt Search Grounding plus URL‑Kontext für verifizierbare Antworten.

Beispiel 2

Thinking + Agent Tools

Thinking, Function Calling, Structured Outputs, Code Execution und File Search werden für agentisches Reasoning und Automation unterstützt.

Beispiel 3

1M Kontext + Ops Controls

Input‑Limit 1.048.576 Tokens mit bis zu 65.536 Output‑Tokens. Caching und Batch API unterstützen Long‑Context‑Pipelines.

Beispiel 4

Warum Gemini 3.1 Pro auf EvoLink

EvoLink stellt Gemini 3.1 Pro Preview über einen vertrauten OpenAI‑SDK‑Endpoint bereit, mit klarer Auth und detaillierten Usage‑Stats für Production‑Tracking.

OpenAI SDK‑Format

Rufen Sie /v1/chat/completions mit model + messages auf. Das messages‑Array ist erforderlich (min. Länge 1).

Granulare Usage‑Metriken

Usage umfasst prompt_tokens, completion_tokens, total_tokens sowie completion_tokens_details.reasoning_tokens.

Model Quality Signal

Stärkere Instruction‑Following, konsistentere Antworten und gute Ergebnisse in Coding- und Reasoning-Benchmarks.

So rufen Sie Gemini 3.1 Pro Preview auf

Nutzen Sie das OpenAI‑SDK‑Format und den Model‑String gemini-3.1-pro-preview.

1

Schritt 1 - Modell setzen

Verwenden Sie model: "gemini-3.1-pro-preview" im Request‑Body.

2

Schritt 2 - Messages senden

Übergeben Sie ein messages‑Array mit role/content‑Pairs (min. Länge 1).

3

Schritt 3 - Output + Usage prüfen

Lesen Sie choices[0].message.content und tracken Sie usage.prompt_tokens, completion_tokens und reasoning_tokens.

Technische Specs

Schlüsseldetails zur Gemini 3.1 Pro Preview API

Kompatibilität

OpenAI SDK‑Format

Standard‑Interface /v1/chat/completions verwenden.

Modell

Model‑String

Für diesen Endpoint model auf gemini-3.1-pro-preview setzen.

Analytics

Usage‑Breakdown

Response enthält Prompt/Completion‑Totals plus detaillierte Token‑Kategorien.

Reasoning

Reasoning Tokens

completion_tokens_details enthält reasoning_tokens für tiefere Analyse.

Multimodal

Multimodaler Fokus

Stärkeres multimodales Reasoning und Tool Use in Tests.

Kontext

1M Kontextfenster

1M‑Kontextfenster für lange Agent‑Flows.

Gemini 3.1 Pro API FAQs

Everything you need to know about the product and billing.

Gemini 3.1 Pro ist die neueste Iteration in Googles Gemini 3 multimodaler Modellfamilie. Diese Seite fokussiert Gemini 3.1 Pro Preview (Model‑Code: gemini-3.1-pro-preview), das Text, Bild, Video, Audio und PDF als Input mit Text‑Output unterstützt, plus Thinking, Function Calling, Structured Outputs, Code Execution, File Search, Search Grounding, URL‑Kontext, Caching und Batch API.
Verwenden Sie "gemini-3.1-pro-preview" als model‑Wert für die Gemini 3.1 Pro Preview API auf EvoLink. Das ist der empfohlene Model‑String für den OpenAI‑kompatiblen Chat‑Completions‑Endpoint.
Senden Sie POST an api.evolink.ai/v1/chat/completions. Setzen Sie Authorization: Bearer <token> und Content-Type: application/json mit einem API‑Key aus dem EvoLink‑Dashboard.
OpenAI SDK Chat Completions Format mit model und einem erforderlichen messages‑Array (min. Länge 1). Jede Message nutzt role/content‑Paare; multimodale Inputs können als Content‑Parts gesendet werden. Optionen: stream, max_tokens, temperature.
Inputs: Text, Bild, Video, Audio, PDF. Output: nur Text. Bild‑ oder Audio‑Generierung wird in diesem Gemini 3.1 Pro Preview‑Modell nicht unterstützt.
Input‑Limit 1.048.576 (1M Kontext) und max Output‑Tokens 65.536. Unterstützt lange Dokumente und Multi‑Turn‑Kontexte.
Thinking, Function Calling, Structured Outputs, Code Execution, File Search, Search Grounding, URL‑Kontext, Caching und Batch API. Für URL‑Kontext ist Function Calling mit Tool Use derzeit nicht unterstützt; bis zu 20 URLs mit max 34 MB pro URL.
EvoLink‑Responses enthalten usage.prompt_tokens, completion_tokens, total_tokens sowie prompt_tokens_details und completion_tokens_details.reasoning_tokens. Nutzen Sie diese Felder, um Kosten, Latenz und Reasoning‑Tokens zu überwachen.
Die Beta-Version ist experimentell: günstiger, aber nicht zu 100% verfügbar. Bei diesem Fehler: 1. Warten und erneut versuchen: meist nach 5-10 Minuten wieder verfügbar. 2. Auf die offizielle Version wechseln: Modell-ID von gemini-3-1-pro-beta auf gemini-3-1-pro ändern. Die offizielle Version bietet 99.9% Uptime
Gemini 3.1 Pro API (gemini-3.1-pro-preview) | OpenAI‑kompatible Chat Completions | EvoLink