Gemini 3.1 Pro Preview API
Acceda a gemini-3.1-pro-preview a través del endpoint /v1/chat/completions compatible con OpenAI de EvoLink. Diseñado para codificación, razonamiento multimodal y uso de herramientas con contabilidad detallada de tokens.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT | CACHE READ |
|---|---|---|---|---|---|
| Gemini 3.1 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% $2.00Official Price >200.0K$3.200-20% $4.00Official Price | ≤200.0K$9.60-20% $12.00Official Price >200.0K$14.40-20% $18.00Official Price | ≤200.0K$0.160-20% $0.200Official Price >200.0K$0.319-20% $0.400Official Price |
| Gemini 3.1 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% $2.00Official Price >200.0K$1.04-74% $4.00Official Price | ≤200.0K$3.12-74% $12.00Official Price >200.0K$4.68-74% $18.00Official Price | ≤200.0K$0.052-74% $0.200Official Price >200.0K$0.104-74% $0.400Official Price |
Pricing Note: Price unit: USD / 1M tokens
Cache Hit: Price applies to cached prompt tokens.
Two ways to run Gemini 3.1 Pro — pick the tier that matches your workload.
- · Gemini 3.1 Pro: the default tier for production reliability and predictable availability.
- · Gemini 3.1 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 3.1 Pro Preview API — Compatible con OpenAI SDK
Llame a gemini-3.1-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1M reportada en pruebas.

Capacidades de Gemini 3.1 Pro Preview API
Entradas multimodales + Grounding
Gemini 3.1 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite Search grounding más contexto URL para respuestas verificables.

Thinking + herramientas de agente
Thinking, function calling, structured outputs, ejecución de código y búsqueda de archivos son compatibles para razonamiento agéntico y automatización.

Contexto 1M + controles Ops
Límite de tokens de entrada de 1,048,576 con hasta 65,536 tokens de salida. Caching y Batch API admiten pipelines de contexto largo.

Por qué usar Gemini 3.1 Pro en EvoLink
EvoLink expone Gemini 3.1 Pro Preview a través de un endpoint familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para seguimiento de producción.
Formato OpenAI SDK
Llame a /v1/chat/completions usando model + messages. El array de messages es obligatorio (longitud mínima 1).
Métricas de uso granulares
El uso incluye prompt_tokens, completion_tokens, total_tokens y completion_tokens_details.reasoning_tokens.
Señal de calidad del modelo
Mejor seguimiento de instrucciones, consistencia de respuesta mejorada y resultados sólidos en benchmarks de codificación y razonamiento.
Cómo llamar a Gemini 3.1 Pro Preview
Use el formato OpenAI SDK y la cadena de modelo gemini-3.1-pro-preview.
Paso 1 - Configurar el modelo
Use model: "gemini-3.1-pro-preview" en el cuerpo de la solicitud.
Paso 2 - Enviar mensajes
Proporcione un array de messages con pares role/content (longitud mínima 1).
Paso 3 - Inspeccionar salida + uso
Lea choices[0].message.content y rastree usage.prompt_tokens, completion_tokens y reasoning_tokens.
Especificaciones técnicas
Detalles clave para Gemini 3.1 Pro Preview API
Formato OpenAI SDK
Use la interfaz estándar /v1/chat/completions.
Cadena de modelo
Establezca model en gemini-3.1-pro-preview para este endpoint.
Desglose de uso
La respuesta incluye totales de prompt/completion más categorías de tokens detalladas.
Tokens de razonamiento
completion_tokens_details incluye reasoning_tokens para análisis más profundo.
Enfoque en razonamiento multimodal
Razonamiento multimodal más fuerte y mejor uso de herramientas.
Ventana de contexto 1M
Ventana de contexto 1M que admite flujos de agentes largos.
Preguntas frecuentes de Gemini 3.1 Pro API
Everything you need to know about the product and billing.