API Gemini 3.0 Pro Preview
Accédez à gemini-3-pro-preview via l’endpoint /v1/chat/completions compatible OpenAI d’EvoLink. Conçu pour le code, le raisonnement multimodal et l’usage d’outils avec un comptage détaillé des tokens.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT | CACHE READ |
|---|---|---|---|---|---|
| Gemini 3 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% $2.00Official Price >200.0K$3.200-20% $4.00Official Price | ≤200.0K$9.60-20% $12.00Official Price >200.0K$14.40-20% $18.00Official Price | ≤200.0K$0.160-20% $0.200Official Price >200.0K$0.319-20% $0.400Official Price |
| Gemini 3 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% $2.00Official Price >200.0K$1.04-74% $4.00Official Price | ≤200.0K$3.12-74% $12.00Official Price >200.0K$4.68-74% $18.00Official Price | ≤200.0K$0.052-74% $0.200Official Price >200.0K$0.104-74% $0.400Official Price |
Pricing Note: Price unit: USD / 1M tokens
Cache Hit: Price applies to cached prompt tokens.
Two ways to run Gemini 3 Pro — pick the tier that matches your workload.
- · Gemini 3 Pro: the default tier for production reliability and predictable availability.
- · Gemini 3 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
API Gemini 3.0 Pro Preview — Compatible OpenAI SDK
Appelez gemini-3-pro-preview via EvoLink au format OpenAI SDK. Obtenez usage + reasoning_tokens et exploitez une fenêtre de contexte 1M rapportée en tests.

Capacités de l’API Gemini 3.0 Pro Preview
Entrées multimodales + grounding
Gemini 3 Pro Preview accepte texte, code, image, vidéo, audio et PDF en entrée avec une sortie texte, et prend en charge le Search grounding plus le contexte d’URL pour des réponses vérifiables.

Thinking + outils d’agents
Thinking, function calling, structured outputs, exécution de code et recherche de fichiers sont pris en charge pour le raisonnement agentique et l’automatisation.

Contexte 1M + contrôles Ops
Limite d’entrée 1 048 576 tokens avec jusqu’à 65 536 tokens en sortie. Caching et Batch API pour les pipelines long‑contexte.

Pourquoi utiliser Gemini 3.0 Pro sur EvoLink
EvoLink expose Gemini 3.0 Pro Preview via un endpoint OpenAI SDK familier, avec une auth explicite et des stats d’usage détaillées pour un suivi production.
Format OpenAI SDK
Appelez /v1/chat/completions avec model + messages. Le tableau messages est requis (longueur min 1).
Métriques d’usage granulaires
Usage inclut prompt_tokens, completion_tokens, total_tokens, plus completion_tokens_details.reasoning_tokens.
Signal de qualité modèle
Vercel rapporte un meilleur suivi des instructions, une meilleure cohérence des réponses et de bons résultats dans ses évaluations Next.js.
Comment appeler Gemini 3.0 Pro Preview
Utilisez le format OpenAI SDK et la chaîne de modèle gemini-3-pro-preview.
Étape 1 - Définir le modèle
Utilisez model: "gemini-3-pro-preview" dans le corps de la requête.
Étape 2 - Envoyer les messages
Fournissez un tableau messages avec des paires role/content (longueur min 1).
Étape 3 - Inspecter output + usage
Lisez choices[0].message.content et suivez usage.prompt_tokens, completion_tokens et reasoning_tokens.
Specs techniques
Détails clés pour l’API Gemini 3.0 Pro Preview
Format OpenAI SDK
Utilisez l’interface standard /v1/chat/completions.
Chaîne de modèle
Définissez model sur gemini-3-pro-preview pour cet endpoint.
Ventilation d’usage
La réponse inclut les totaux prompt/completion et des catégories détaillées.
Reasoning tokens
completion_tokens_details inclut reasoning_tokens pour une analyse plus fine.
Focus raisonnement multimodal
Vercel note un raisonnement multimodal plus fort et un meilleur tool use.
Fenêtre de contexte 1M
Vercel rapporte une fenêtre 1M supportant de longs flows d’agents.
FAQ API Gemini 3.0 Pro
Everything you need to know about the product and billing.