Seedance 2.0 API — Coming SoonGet early access

Gemini 2.5 Pro API

Gemini 2.5 Pro brinda a los equipos un modelo de razonamiento de contexto prolongado para análisis profundo, revisión de código y planificación compleja. Con Gemini 2.5 Pro en EvoLink, puede enrutar solicitudes con una sola clave API, realizar un seguimiento del uso por proyecto y mantener controles compatibles con el cumplimiento para las aplicaciones de producción.

Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUT
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25Official Price
>200.0K$2.00-20%
$2.50Official Price
200.0K$8.00-20%
$10.00Official Price
>200.0K$12.000-20%
$15.00Official Price
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25Official Price
>200.0K$0.650-74%
$2.50Official Price
200.0K$2.60-74%
$10.00Official Price
>200.0K$3.90-74%
$15.00Official Price

Pricing Note: Price unit: USD / 1M tokens

Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.

  • · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 2.5 Pro para razonamiento de contexto prolongado y uso de herramientas

Gemini 2.5 Pro admite hasta aproximadamente un millón de tokens de entrada y salida de texto, por lo que los archivos, PDF y flujos de trabajo de varios turnos permanecen durante mucho tiempo en una sola conversación. Utilice entradas multimodales y salidas estructuradas para convertir un contexto amplio en acciones confiables.

Exhibición de héroe de la característica 1 del modelo de IA

¿Qué puede ayudarte a construir Gemini 2.5 Pro?

Comprensión de contexto largo

Gemini 2.5 Pro puede leer documentos grandes, bases de código y archivos PDF en una sola solicitud y mantener la coherencia en la intención a lo largo de largas conversaciones. Cargue políticas, especificaciones e historial de chat anterior, luego solicite resúmenes, comprobaciones de riesgos o decisiones sin grandes fragmentaciones ni repetidas solicitudes constantes.

Muestra contextual de la característica 2 del modelo de IA

Análisis multimodal

Gemini 2.5 Pro acepta entradas de texto, imágenes, audio, video y PDF y devuelve respuestas de texto claro. Eso significa que puede combinar el audio de la reunión con diapositivas, agregar capturas de pantalla a un informe de error o adjuntar un PDF de contrato y solicitar un resumen de riesgos en un solo flujo.

Muestra multimodal de la característica 3 del modelo de IA

Flujos de trabajo estructurados

Gemini 2.5 Pro admite llamadas a funciones, salidas estructuradas, contexto URL y búsqueda de archivos para que su aplicación pueda pasar de la información a la acción. Utilice respuestas en forma de JSON para la extracción de datos, aprobaciones o enrutamiento, luego base los resultados con búsquedas o mapas cuando la precisión sea más importante.

Muestra de flujo de trabajo de la característica 4 del modelo de IA

Por qué los equipos eligen este modelo

Los equipos eligen Gemini 2.5 Pro para razonamiento de contexto prolongado, entradas multimodales y controles listos para producción, como salidas estructuradas y conexión a tierra, y luego acceden a él en EvoLink a través de puntos finales Gemini nativos o compatibles con OpenAI.

Confianza a largo plazo

Hasta 1.048.576 tokens de entrada y 65.536 tokens de salida ayudan a mantener documentos grandes e historiales extensos en una sola solicitud.

Estructura confiable

Las llamadas a funciones y las salidas estructuradas ayudan a generar JSON consistente para la automatización y los sistemas posteriores.

Claridad operativa

El almacenamiento en caché y el soporte por lotes API reducen los costos en cargas de trabajo repetidas, mientras que la conexión a tierra de búsqueda o mapas mejora la confianza.

Cómo utilizar Gemini 2.5 Pro

Utilice Gemini 2.5 Pro hasta EvoLink con compatibilidad OpenAI SDK o el punto final nativo Gemini.

1

Paso 1: preparar el contexto

Recopile los archivos, enlaces o transcripciones que necesite y luego solicite un esquema o resumen antes de realizar un análisis profundo.

2

Paso 2: elija el formato API

Llame a /v1/chat/completions para obtener compatibilidad con OpenAI SDK, o use /v1beta/models/gemini-2.5-pro:{method} para obtener funciones nativas de Gemini.

3

Paso 3: generar, revisar y mejorar

Evalúe resultados, agregue restricciones y almacene en caché bloques de contexto repetidos para reducir costos en trabajos grandes y recurrentes.

Capacidades clave

Diseñado para un razonamiento largo y confiable

Contexto

Ventana de contexto de clase 1M

Gemini 2.5 Pro admite hasta 1.048.576 tokens de entrada y hasta 65.536 tokens de salida, por lo que los documentos largos y el trabajo de varios pasos permanecen en una sola solicitud.

Multimodal

Entradas multimodales

Este modelo acepta entradas de texto, imágenes, audio, video y PDF, luego devuelve una salida de texto que es fácil de almacenar, buscar o pasar a otros sistemas.

Herramientas

Productos y herramientas estructurados

Obtenga llamadas a funciones y resultados estructurados para formatear las respuestas como JSON, de modo que sus flujos de trabajo puedan analizar resultados, desencadenar acciones y evitar un posprocesamiento frágil.

Toma de tierra

Conexión a tierra y contexto URL

Utilice la base de búsqueda, la base de mapas, el contexto URL y la búsqueda de archivos para mejorar la precisión y reducir las alucinaciones cuando la precisión objetiva es importante.

Eficiencia

Soporte de almacenamiento en caché y por lotes

El almacenamiento en caché es compatible con solicitudes repetidas de contexto prolongado, y la compatibilidad con Batch API le permite procesar colas grandes de manera eficiente cuando la latencia es menos importante que el rendimiento.

Confianza

Razonamiento con límites conocidos

Este modelo incluye una fecha límite de conocimiento de enero de 2025, así que combínelo con fuentes nuevas o de conexión a tierra cuando necesite la información más actualizada.

Preguntas frecuentes

Everything you need to know about the product and billing.

Gemini 2.5 Pro es más potente cuando se necesita un razonamiento profundo en un contexto extenso, como revisiones de múltiples documentos, análisis de código complejo o planificación que abarca muchas limitaciones. Because the model accepts large prompts, you can keep policies, specs, and historical context together and ask for a single, coherent response. It is also well-suited to multimodal workflows where text needs to be combined with images, audio, video, or PDFs. For production apps, structured outputs help keep results consistent.
Gemini 2.5 Pro admite un límite de tokens de entrada de hasta 1.048.576 tokens y un límite de salida de hasta 65.536 tokens. En la práctica, eso significa que puede tomar documentos muy grandes, largos historiales de chat o entradas de medios combinadas en una sola solicitud. Si presiona al máximo, planifique tiempos de respuesta más largos y costos más altos. Para el trabajo diario, muchos equipos se mantienen por debajo del límite y utilizan el margen adicional para reducir la fragmentación y preservar la continuidad.
Gemini 2.5 Pro acepta entradas de texto, imágenes, audio, video y PDF y devuelve salida de texto. Esto hace que el modelo sea práctico para flujos de trabajo como resumir un PDF, extraer información de la grabación de una reunión o explicar un videoclip en lenguaje sencillo. Debido a que la salida es solo texto, es fácil almacenarla, buscarla o enviarla a sistemas empresariales y de análisis. Si necesita salidas multimodales, puede emparejarlas con modelos de medios especializados en EvoLink.
Sí. Gemini 2.5 Pro admite llamadas de funciones y salidas estructuradas, lo que le permite solicitar respuestas en forma de JSON para una extracción y enrutamiento de datos consistente. Esto es útil cuando desea que Gemini 2.5 Pro complete un formulario, clasifique tickets o produzca resúmenes estructurados para paneles. Puede definir los campos que necesita, validar la salida más fácilmente y reducir la limpieza manual. Para flujos de trabajo de alto riesgo, combine resultados estructurados con conexión a tierra para mejorar la confiabilidad.
Gemini 2.5 Pro admite la búsqueda de archivos y contexto URL, además de opciones de conexión a tierra como búsqueda o conexión a tierra de mapas. Esto significa que Gemini 2.5 Pro puede hacer referencia a fuentes específicas, vincular a páginas y anclar respuestas en material recuperable. Cuando necesite resultados confiables, proporcione las fuentes que le interesen, pídale al modelo que las cite y mantenga las indicaciones enfocadas. La conexión a tierra es especialmente útil para escenarios de políticas, cumplimiento y atención al cliente donde la precisión es importante.
EvoLink proporciona dos rutas: un punto final compatible con OpenAI SDK en /v1/chat/completions y un punto final nativo Gemini en /v1beta/models/gemini-2.5-pro:{method}. Gemini 2.5 Pro funciona con cualquiera de las opciones, por lo que puede conservar las herramientas existentes del estilo OpenAI o usar el formato nativo para funciones específicas de Gemini. Ambos flujos utilizan autenticación de token de portador y pueden transmitir respuestas; el punto final nativo también admite el modo asíncrono con un encabezado X-Async-Mode.
Google publica el precio oficial de Gemini 2.5 Pro para su API, con niveles pagos estándar que varían según el tamaño del mensaje. Como lo indica Google, los avisos de hasta 200 000 tokens tienen un precio de $1,25 por 1 millón de tokens de entrada y $10 por 1 millón de tokens de salida, mientras que los avisos más grandes cuestan más; el almacenamiento en caché y el almacenamiento tienen tarifas separadas. El uso de EvoLink depende de su ruta y plan, así que consulte su panel para conocer los controles de precios y costos más precisos.
Gemini 2.5 Pro enumera un límite de conocimiento de enero de 2025, por lo que es posible que no conozca eventos o cambios muy recientes. Cuando la frescura sea importante, utilice Gemini 2.5 Pro con contexto URL, carga de archivos o conexión a tierra para que el modelo pueda confiar en las fuentes actuales que usted proporcione. También puede solicitarle que separe los hechos citados de las suposiciones, lo que ayuda a los revisores a verificar la precisión. Este enfoque mantiene las respuestas útiles y al mismo tiempo se beneficia del razonamiento de contexto prolongado del modelo.