Seedance 2.0 API — Coming SoonGet early access

Gemini 2.5 Pro API

Gemini 2.5 Pro offre aux équipes un modèle de raisonnement long contexte pour l'analyse approfondie, la review de code et la planification complexe. Avec Gemini 2.5 Pro sur EvoLink, vous routez les requêtes avec une seule clé API, suivez l'usage par projet et conservez des contrôles adaptés à la conformité pour les apps en production.

Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUT
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25Official Price
>200.0K$2.00-20%
$2.50Official Price
200.0K$8.00-20%
$10.00Official Price
>200.0K$12.000-20%
$15.00Official Price
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25Official Price
>200.0K$0.650-74%
$2.50Official Price
200.0K$2.60-74%
$10.00Official Price
>200.0K$3.90-74%
$15.00Official Price

Pricing Note: Price unit: USD / 1M tokens

Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.

  • · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 2.5 Pro pour le raisonnement long contexte et le tool use

Gemini 2.5 Pro supporte jusqu'à environ un million de tokens d'entrée et la sortie texte, afin que les fichiers longs, PDFs et workflows multi-tours restent dans une seule conversation. Utilisez des entrées multimodales et des sorties structurées pour transformer un grand contexte en actions fiables.

Hero showcase d'une fonctionnalité de modèle IA 1

Que peut vous aider à construire Gemini 2.5 Pro ?

Compréhension long contexte

Gemini 2.5 Pro peut lire de grands documents, bases de code et PDFs en une seule requête et garder l'intention cohérente sur des conversations longues. Chargez des policies, des specs et l'historique de chat, puis demandez des résumés, des vérifications de risques ou des décisions sans chunking lourd ni re-prompts constants.

Context showcase d'une fonctionnalité de modèle IA 2

Analyse multimodale

Gemini 2.5 Pro accepte texte, images, audio, vidéo et PDF en entrée tout en renvoyant des réponses texte claires. Cela signifie que vous pouvez combiner l'audio d'une réunion avec des slides, ajouter des captures d'écran à un rapport de bug ou joindre un PDF de contrat pour demander un résumé des risques dans un seul flow.

Multimodal showcase d'une fonctionnalité de modèle IA 3

Workflows structurés

Gemini 2.5 Pro supporte le function calling, les sorties structurées, le contexte d'URL et la recherche de fichiers afin que votre app passe de l'insight à l'action. Utilisez des réponses JSON pour l'extraction, les validations ou le routage, puis ancrez les résultats avec la recherche ou les cartes lorsque la précision est essentielle.

Workflow showcase d'une fonctionnalité de modèle IA 4

Pourquoi les équipes choisissent ce modèle

Les équipes choisissent Gemini 2.5 Pro pour le raisonnement long contexte, les entrées multimodales et des contrôles prêts pour la production comme les sorties structurées et le grounding, puis y accèdent sur EvoLink via des endpoints compatibles OpenAI ou natifs Gemini.

Confiance long contexte

Jusqu'à 1 048 576 tokens d'entrée et 65 536 tokens de sortie maintiennent de grands documents et longs historiques dans une seule requête.

Structure fiable

Function calling et sorties structurées aident à générer un JSON cohérent pour l'automatisation et les systèmes en aval.

Clarté opérationnelle

Le caching et l'API Batch réduisent les coûts sur les workloads répétitifs, tandis que le grounding via recherche ou cartes renforce la confiance.

Comment utiliser Gemini 2.5 Pro

Utilisez Gemini 2.5 Pro via EvoLink soit avec la compatibilité OpenAI SDK, soit via l'endpoint Gemini natif.

1

Étape 1 - Préparer le contexte

Rassemblez les fichiers, liens ou transcriptions nécessaires, puis demandez un plan ou un résumé avant l'analyse approfondie.

2

Étape 2 - Choisir le format API

Appelez /v1/chat/completions pour la compatibilité OpenAI SDK, ou utilisez /v1beta/models/gemini-2.5-pro:{method} pour les fonctionnalités natives Gemini.

3

Étape 3 - Générer, revoir, améliorer

Évaluez les sorties, ajoutez des contraintes et mettez en cache les blocs de contexte répétés pour réduire les coûts sur les jobs volumineux et récurrents.

Capacités clés

Conçu pour un raisonnement long et fiable

Context

Fenêtre de contexte classe 1M

Gemini 2.5 Pro supporte jusqu'à 1 048 576 tokens d'entrée et jusqu'à 65 536 tokens de sortie, de sorte que les longs documents et travaux multi-étapes restent dans une seule requête.

Multimodal

Entrées multimodales

Ce modèle accepte texte, image, audio, vidéo et PDF, puis renvoie une sortie texte facile à stocker, rechercher ou transmettre à d'autres systèmes.

Tools

Sorties structurées et tools

Obtenez le function calling et des sorties structurées pour formater les réponses en JSON, afin que vos workflows puissent parser les résultats, déclencher des actions et éviter un post-traitement fragile.

Grounding

Grounding et contexte URL

Utilisez le grounding via recherche, le grounding via cartes, le contexte URL et la recherche de fichiers pour améliorer la précision et réduire les hallucinations lorsque la précision factuelle compte.

Efficiency

Caching et support batch

Le caching est supporté pour les prompts long contexte répétés, et le support Batch API permet de traiter efficacement de grandes files lorsque la latence compte moins que le débit.

Trust

Raisonnement avec limites connues

Ce modèle a un knowledge cutoff en janvier 2025 ; associez-le au grounding ou à des sources récentes quand vous avez besoin d'informations actuelles.

Questions fréquentes

Everything you need to know about the product and billing.

Gemini 2.5 Pro est particulièrement fort lorsque vous avez besoin d'un raisonnement profond sur un long contexte, comme des revues multi-documents, une analyse de code complexe ou une planification qui couvre de nombreuses contraintes. Comme le modèle accepte de grands prompts, vous pouvez conserver policies, specs et contexte historique ensemble et demander une réponse unique et cohérente. Il convient aussi aux workflows multimodaux où le texte doit être combiné à des images, de l'audio, de la vidéo ou des PDFs. Pour les apps en production, les sorties structurées aident à garder des résultats cohérents.
Gemini 2.5 Pro supporte une limite d'entrée jusqu'à 1 048 576 tokens et une limite de sortie jusqu'à 65 536 tokens. En pratique, cela signifie qu'il peut prendre de très grands documents, de longues histories de chat ou des inputs média combinés dans une seule requête. Si vous poussez le maximum, prévoyez des temps de réponse plus longs et des coûts plus élevés. Pour un usage quotidien, de nombreuses équipes restent sous la limite et utilisent la marge pour réduire le chunking et préserver la continuité.
Gemini 2.5 Pro accepte texte, images, audio, vidéo et PDF en entrée et renvoie une sortie texte. Cela rend le modèle pratique pour des workflows comme le résumé d'un PDF, l'extraction d'insights d'un enregistrement de réunion ou l'explication d'un clip vidéo en langage clair. Comme la sortie est uniquement texte, elle est facile à stocker, rechercher ou envoyer à des systèmes analytics et business. Si vous avez besoin de sorties multimodales, vous pouvez l'associer à des modèles média spécialisés sur EvoLink.
Oui. Gemini 2.5 Pro supporte le function calling et les sorties structurées, ce qui vous permet de demander des réponses JSON pour une extraction et un routage cohérents. C'est utile lorsque vous voulez que Gemini 2.5 Pro remplisse un formulaire, classe des tickets ou produise des résumés structurés pour des dashboards. Vous pouvez définir les champs nécessaires, valider les sorties plus facilement et réduire le nettoyage manuel. Pour des workflows à forts enjeux, combinez les sorties structurées avec le grounding pour améliorer la fiabilité.
Gemini 2.5 Pro supporte le contexte URL et la recherche de fichiers, ainsi que des options de grounding comme la recherche ou les cartes. Cela signifie que Gemini 2.5 Pro peut référencer des sources spécifiques, lier des pages et ancrer ses réponses dans du matériel récupérable. Quand vous avez besoin de résultats fiables, fournissez les sources que vous visez, demandez au modèle de les citer et gardez les prompts concentrés. Le grounding est particulièrement utile pour les scénarios de politique, conformité et support client où la précision compte.
EvoLink propose deux chemins : un endpoint compatible OpenAI SDK à /v1/chat/completions et un endpoint Gemini natif à /v1beta/models/gemini-2.5-pro:{method}. Gemini 2.5 Pro fonctionne avec les deux options, donc vous pouvez conserver vos outils de type OpenAI ou utiliser le format natif pour les fonctionnalités spécifiques Gemini. Les deux flux utilisent l'auth Bearer token et peuvent streamer les réponses ; l'endpoint natif supporte aussi le mode async avec l'en-tête X-Async-Mode.
Google publie les prix officiels de l'API Gemini 2.5 Pro avec des paliers payants standards qui varient selon la taille des prompts. Selon Google, les prompts jusqu'à 200k tokens sont facturés 1,25 $ par 1M tokens d'entrée et 10 $ par 1M tokens de sortie, tandis que les prompts plus longs coûtent plus cher ; le caching et le stockage ont des tarifs séparés. L'usage EvoLink dépend de votre routage et de votre plan ; consultez votre dashboard pour les prix et contrôles de coûts les plus précis.
Gemini 2.5 Pro indique un knowledge cutoff en janvier 2025, il peut donc ne pas connaître des événements ou changements très récents. Lorsque la fraîcheur est importante, utilisez Gemini 2.5 Pro avec contexte URL, uploads de fichiers ou grounding pour que le modèle s'appuie sur des sources actuelles que vous fournissez. Vous pouvez aussi lui demander de séparer les faits cités des suppositions, ce qui aide les reviewers à vérifier l'exactitude. Cette approche maintient les réponses utiles tout en profitant du raisonnement long contexte du modèle.