Gemini 2.5 Pro API
Gemini 2.5 Pro offre aux équipes un modèle de raisonnement long contexte pour l'analyse approfondie, la review de code et la planification complexe. Avec Gemini 2.5 Pro sur EvoLink, vous routez les requêtes avec une seule clé API, suivez l'usage par projet et conservez des contrôles adaptés à la conformité pour les apps en production.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT |
|---|---|---|---|---|
| Gemini 2.5 Pro | 1.05M | 65.5K | ≤200.0K$1.00-20% $1.25Official Price >200.0K$2.00-20% $2.50Official Price | ≤200.0K$8.00-20% $10.00Official Price >200.0K$12.000-20% $15.00Official Price |
| Gemini 2.5 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.325-74% $1.25Official Price >200.0K$0.650-74% $2.50Official Price | ≤200.0K$2.60-74% $10.00Official Price >200.0K$3.90-74% $15.00Official Price |
Pricing Note: Price unit: USD / 1M tokens
Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.
- · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
- · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 2.5 Pro pour le raisonnement long contexte et le tool use
Gemini 2.5 Pro supporte jusqu'à environ un million de tokens d'entrée et la sortie texte, afin que les fichiers longs, PDFs et workflows multi-tours restent dans une seule conversation. Utilisez des entrées multimodales et des sorties structurées pour transformer un grand contexte en actions fiables.

Que peut vous aider à construire Gemini 2.5 Pro ?
Compréhension long contexte
Gemini 2.5 Pro peut lire de grands documents, bases de code et PDFs en une seule requête et garder l'intention cohérente sur des conversations longues. Chargez des policies, des specs et l'historique de chat, puis demandez des résumés, des vérifications de risques ou des décisions sans chunking lourd ni re-prompts constants.

Analyse multimodale
Gemini 2.5 Pro accepte texte, images, audio, vidéo et PDF en entrée tout en renvoyant des réponses texte claires. Cela signifie que vous pouvez combiner l'audio d'une réunion avec des slides, ajouter des captures d'écran à un rapport de bug ou joindre un PDF de contrat pour demander un résumé des risques dans un seul flow.

Workflows structurés
Gemini 2.5 Pro supporte le function calling, les sorties structurées, le contexte d'URL et la recherche de fichiers afin que votre app passe de l'insight à l'action. Utilisez des réponses JSON pour l'extraction, les validations ou le routage, puis ancrez les résultats avec la recherche ou les cartes lorsque la précision est essentielle.

Pourquoi les équipes choisissent ce modèle
Les équipes choisissent Gemini 2.5 Pro pour le raisonnement long contexte, les entrées multimodales et des contrôles prêts pour la production comme les sorties structurées et le grounding, puis y accèdent sur EvoLink via des endpoints compatibles OpenAI ou natifs Gemini.
Confiance long contexte
Jusqu'à 1 048 576 tokens d'entrée et 65 536 tokens de sortie maintiennent de grands documents et longs historiques dans une seule requête.
Structure fiable
Function calling et sorties structurées aident à générer un JSON cohérent pour l'automatisation et les systèmes en aval.
Clarté opérationnelle
Le caching et l'API Batch réduisent les coûts sur les workloads répétitifs, tandis que le grounding via recherche ou cartes renforce la confiance.
Comment utiliser Gemini 2.5 Pro
Utilisez Gemini 2.5 Pro via EvoLink soit avec la compatibilité OpenAI SDK, soit via l'endpoint Gemini natif.
Étape 1 - Préparer le contexte
Rassemblez les fichiers, liens ou transcriptions nécessaires, puis demandez un plan ou un résumé avant l'analyse approfondie.
Étape 2 - Choisir le format API
Appelez /v1/chat/completions pour la compatibilité OpenAI SDK, ou utilisez /v1beta/models/gemini-2.5-pro:{method} pour les fonctionnalités natives Gemini.
Étape 3 - Générer, revoir, améliorer
Évaluez les sorties, ajoutez des contraintes et mettez en cache les blocs de contexte répétés pour réduire les coûts sur les jobs volumineux et récurrents.
Capacités clés
Conçu pour un raisonnement long et fiable
Fenêtre de contexte classe 1M
Gemini 2.5 Pro supporte jusqu'à 1 048 576 tokens d'entrée et jusqu'à 65 536 tokens de sortie, de sorte que les longs documents et travaux multi-étapes restent dans une seule requête.
Entrées multimodales
Ce modèle accepte texte, image, audio, vidéo et PDF, puis renvoie une sortie texte facile à stocker, rechercher ou transmettre à d'autres systèmes.
Sorties structurées et tools
Obtenez le function calling et des sorties structurées pour formater les réponses en JSON, afin que vos workflows puissent parser les résultats, déclencher des actions et éviter un post-traitement fragile.
Grounding et contexte URL
Utilisez le grounding via recherche, le grounding via cartes, le contexte URL et la recherche de fichiers pour améliorer la précision et réduire les hallucinations lorsque la précision factuelle compte.
Caching et support batch
Le caching est supporté pour les prompts long contexte répétés, et le support Batch API permet de traiter efficacement de grandes files lorsque la latence compte moins que le débit.
Raisonnement avec limites connues
Ce modèle a un knowledge cutoff en janvier 2025 ; associez-le au grounding ou à des sources récentes quand vous avez besoin d'informations actuelles.
Questions fréquentes
Everything you need to know about the product and billing.