Gemini 2.5 Pro API
Gemini 2.5 Pro brinda a los equipos un modelo de razonamiento de contexto prolongado para análisis profundo, revisión de código y planificación compleja. Con Gemini 2.5 Pro en EvoLink, puede enrutar solicitudes con una sola clave API, realizar un seguimiento del uso por proyecto y mantener controles compatibles con el cumplimiento para las aplicaciones de producción.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT |
|---|---|---|---|---|
| Gemini 2.5 Pro | 1.05M | 65.5K | ≤200.0K$1.00-20% $1.25Official Price >200.0K$2.00-20% $2.50Official Price | ≤200.0K$8.00-20% $10.00Official Price >200.0K$12.000-20% $15.00Official Price |
| Gemini 2.5 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.325-74% $1.25Official Price >200.0K$0.650-74% $2.50Official Price | ≤200.0K$2.60-74% $10.00Official Price >200.0K$3.90-74% $15.00Official Price |
Pricing Note: Price unit: USD / 1M tokens
Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.
- · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
- · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 2.5 Pro para razonamiento de contexto prolongado y uso de herramientas
Gemini 2.5 Pro admite hasta aproximadamente un millón de tokens de entrada y salida de texto, por lo que los archivos, PDF y flujos de trabajo de varios turnos permanecen durante mucho tiempo en una sola conversación. Utilice entradas multimodales y salidas estructuradas para convertir un contexto amplio en acciones confiables.

¿Qué puede ayudarte a construir Gemini 2.5 Pro?
Comprensión de contexto largo
Gemini 2.5 Pro puede leer documentos grandes, bases de código y archivos PDF en una sola solicitud y mantener la coherencia en la intención a lo largo de largas conversaciones. Cargue políticas, especificaciones e historial de chat anterior, luego solicite resúmenes, comprobaciones de riesgos o decisiones sin grandes fragmentaciones ni repetidas solicitudes constantes.

Análisis multimodal
Gemini 2.5 Pro acepta entradas de texto, imágenes, audio, video y PDF y devuelve respuestas de texto claro. Eso significa que puede combinar el audio de la reunión con diapositivas, agregar capturas de pantalla a un informe de error o adjuntar un PDF de contrato y solicitar un resumen de riesgos en un solo flujo.

Flujos de trabajo estructurados
Gemini 2.5 Pro admite llamadas a funciones, salidas estructuradas, contexto URL y búsqueda de archivos para que su aplicación pueda pasar de la información a la acción. Utilice respuestas en forma de JSON para la extracción de datos, aprobaciones o enrutamiento, luego base los resultados con búsquedas o mapas cuando la precisión sea más importante.

Por qué los equipos eligen este modelo
Los equipos eligen Gemini 2.5 Pro para razonamiento de contexto prolongado, entradas multimodales y controles listos para producción, como salidas estructuradas y conexión a tierra, y luego acceden a él en EvoLink a través de puntos finales Gemini nativos o compatibles con OpenAI.
Confianza a largo plazo
Hasta 1.048.576 tokens de entrada y 65.536 tokens de salida ayudan a mantener documentos grandes e historiales extensos en una sola solicitud.
Estructura confiable
Las llamadas a funciones y las salidas estructuradas ayudan a generar JSON consistente para la automatización y los sistemas posteriores.
Claridad operativa
El almacenamiento en caché y el soporte por lotes API reducen los costos en cargas de trabajo repetidas, mientras que la conexión a tierra de búsqueda o mapas mejora la confianza.
Cómo utilizar Gemini 2.5 Pro
Utilice Gemini 2.5 Pro hasta EvoLink con compatibilidad OpenAI SDK o el punto final nativo Gemini.
Paso 1: preparar el contexto
Recopile los archivos, enlaces o transcripciones que necesite y luego solicite un esquema o resumen antes de realizar un análisis profundo.
Paso 2: elija el formato API
Llame a /v1/chat/completions para obtener compatibilidad con OpenAI SDK, o use /v1beta/models/gemini-2.5-pro:{method} para obtener funciones nativas de Gemini.
Paso 3: generar, revisar y mejorar
Evalúe resultados, agregue restricciones y almacene en caché bloques de contexto repetidos para reducir costos en trabajos grandes y recurrentes.
Capacidades clave
Diseñado para un razonamiento largo y confiable
Ventana de contexto de clase 1M
Gemini 2.5 Pro admite hasta 1.048.576 tokens de entrada y hasta 65.536 tokens de salida, por lo que los documentos largos y el trabajo de varios pasos permanecen en una sola solicitud.
Entradas multimodales
Este modelo acepta entradas de texto, imágenes, audio, video y PDF, luego devuelve una salida de texto que es fácil de almacenar, buscar o pasar a otros sistemas.
Productos y herramientas estructurados
Obtenga llamadas a funciones y resultados estructurados para formatear las respuestas como JSON, de modo que sus flujos de trabajo puedan analizar resultados, desencadenar acciones y evitar un posprocesamiento frágil.
Conexión a tierra y contexto URL
Utilice la base de búsqueda, la base de mapas, el contexto URL y la búsqueda de archivos para mejorar la precisión y reducir las alucinaciones cuando la precisión objetiva es importante.
Soporte de almacenamiento en caché y por lotes
El almacenamiento en caché es compatible con solicitudes repetidas de contexto prolongado, y la compatibilidad con Batch API le permite procesar colas grandes de manera eficiente cuando la latencia es menos importante que el rendimiento.
Razonamiento con límites conocidos
Este modelo incluye una fecha límite de conocimiento de enero de 2025, así que combínelo con fuentes nuevas o de conexión a tierra cuando necesite la información más actualizada.
Preguntas frecuentes
Everything you need to know about the product and billing.