Seedance 2.0 API — Coming SoonGet early access

API Gemini 3.1 Pro Preview

Accédez à gemini-3.1-pro-preview via l'endpoint /v1/chat/completions compatible OpenAI d'EvoLink. Conçu pour le code, le raisonnement multimodal et l'usage d'outils avec un comptage détaillé des tokens.

Run With API
Using coding CLIs? Run Gemini 3.1 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
Gemini 3.1 Pro1.05M65.5K
200.0K$1.600-20%
$2.00Official Price
>200.0K$3.200-20%
$4.00Official Price
200.0K$9.60-20%
$12.00Official Price
>200.0K$14.40-20%
$18.00Official Price
200.0K$0.160-20%
$0.200Official Price
>200.0K$0.319-20%
$0.400Official Price
Gemini 3.1 Pro (Beta)1.05M65.5K
200.0K$0.520-74%
$2.00Official Price
>200.0K$1.04-74%
$4.00Official Price
200.0K$3.12-74%
$12.00Official Price
>200.0K$4.68-74%
$18.00Official Price
200.0K$0.052-74%
$0.200Official Price
>200.0K$0.104-74%
$0.400Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run Gemini 3.1 Pro — pick the tier that matches your workload.

  • · Gemini 3.1 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 3.1 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

API Gemini 3.1 Pro Preview — Compatible OpenAI SDK

Appelez gemini-3.1-pro-preview via EvoLink au format OpenAI SDK. Obtenez usage + reasoning_tokens et exploitez une fenêtre de contexte 1M rapportée en tests.

exemple 1

Capacités de l'API Gemini 3.1 Pro Preview

Entrées multimodales + grounding

Gemini 3.1 Pro Preview accepte texte, code, image, vidéo, audio et PDF en entrée avec une sortie texte, et prend en charge le Search grounding plus le contexte d'URL pour des réponses vérifiables.

exemple 2

Thinking + outils d'agents

Thinking, function calling, structured outputs, exécution de code et recherche de fichiers sont pris en charge pour le raisonnement agentique et l'automatisation.

exemple 3

Contexte 1M + contrôles Ops

Limite d'entrée 1 048 576 tokens avec jusqu'à 65 536 tokens en sortie. Caching et Batch API pour les pipelines long‑contexte.

exemple 4

Pourquoi utiliser Gemini 3.1 Pro sur EvoLink

EvoLink expose Gemini 3.1 Pro Preview via un endpoint OpenAI SDK familier, avec une auth explicite et des stats d'usage détaillées pour un suivi production.

Format OpenAI SDK

Appelez /v1/chat/completions avec model + messages. Le tableau messages est requis (longueur min 1).

Métriques d'usage granulaires

Usage inclut prompt_tokens, completion_tokens, total_tokens, plus completion_tokens_details.reasoning_tokens.

Signal de qualité modèle

Meilleur suivi des instructions, cohérence des réponses améliorée et de bons résultats dans les benchmarks de codage et de raisonnement.

Comment appeler Gemini 3.1 Pro Preview

Utilisez le format OpenAI SDK et la chaîne de modèle gemini-3.1-pro-preview.

1

Étape 1 - Définir le modèle

Utilisez model: "gemini-3.1-pro-preview" dans le corps de la requête.

2

Étape 2 - Envoyer les messages

Fournissez un tableau messages avec des paires role/content (longueur min 1).

3

Étape 3 - Inspecter output + usage

Lisez choices[0].message.content et suivez usage.prompt_tokens, completion_tokens et reasoning_tokens.

Specs techniques

Détails clés pour l'API Gemini 3.1 Pro Preview

Compatibilité

Format OpenAI SDK

Utilisez l'interface standard /v1/chat/completions.

Modèle

Chaîne de modèle

Définissez model sur gemini-3.1-pro-preview pour cet endpoint.

Analytics

Ventilation d'usage

La réponse inclut les totaux prompt/completion et des catégories détaillées.

Raisonnement

Reasoning tokens

completion_tokens_details inclut reasoning_tokens pour une analyse plus fine.

Multimodal

Focus raisonnement multimodal

Raisonnement multimodal plus fort et meilleur tool use.

Contexte

Fenêtre de contexte 1M

Fenêtre 1M supportant de longs flows d'agents.

FAQ API Gemini 3.1 Pro

Everything you need to know about the product and billing.

Gemini 3.1 Pro est la dernière itération de la famille de modèles multimodaux Gemini 3 de Google. Cette page se concentre sur Gemini 3.1 Pro Preview (code modèle : gemini-3.1-pro-preview), qui accepte texte, image, vidéo, audio et PDF en entrée avec une sortie texte, ainsi que thinking, function calling, structured outputs, exécution de code, recherche de fichiers, search grounding, contexte d'URL, caching et Batch API.
Utilisez "gemini-3.1-pro-preview" comme valeur de model pour l'API Gemini 3.1 Pro Preview sur EvoLink. C'est la chaîne recommandée pour l'endpoint chat completions compatible OpenAI.
Envoyez un POST vers api.evolink.ai/v1/chat/completions. Ajoutez Authorization: Bearer <token> et Content-Type: application/json avec une clé API du dashboard EvoLink.
Format OpenAI SDK chat completions avec model et un tableau messages requis (longueur min 1). Chaque message utilise des paires role/content ; les entrées multimodales passent en content parts. Options courantes : stream, max_tokens, temperature.
Entrées : texte, image, vidéo, audio, PDF. Sortie : texte uniquement. Aucune génération d'image ou d'audio dans ce modèle Gemini 3.1 Pro Preview.
Limite d'entrée 1 048 576 (contexte 1M) et max 65 536 tokens en sortie. Prend en charge des documents longs et des contextes multi‑tours.
Thinking, function calling, structured outputs, exécution de code, recherche de fichiers, search grounding, contexte d'URL, caching et Batch API. Pour le contexte d'URL, le function calling avec tool use n'est pas supporté actuellement ; jusqu'à 20 URLs avec 34 Mo max par URL.
Les réponses EvoLink incluent usage.prompt_tokens, completion_tokens, total_tokens, ainsi que prompt_tokens_details et completion_tokens_details.reasoning_tokens. Utilisez ces champs pour suivre coût, latence et consommation de reasoning tokens.