Seedance 2.0 API — Coming SoonGet early access

Gemini 3.1 Pro Preview API

Acceda a gemini-3.1-pro-preview a través del endpoint /v1/chat/completions compatible con OpenAI de EvoLink. Diseñado para codificación, razonamiento multimodal y uso de herramientas con contabilidad detallada de tokens.

Run With API
Using coding CLIs? Run Gemini 3.1 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
Gemini 3.1 Pro1.05M65.5K
200.0K$1.600-20%
$2.00Official Price
>200.0K$3.200-20%
$4.00Official Price
200.0K$9.60-20%
$12.00Official Price
>200.0K$14.40-20%
$18.00Official Price
200.0K$0.160-20%
$0.200Official Price
>200.0K$0.319-20%
$0.400Official Price
Gemini 3.1 Pro (Beta)1.05M65.5K
200.0K$0.520-74%
$2.00Official Price
>200.0K$1.04-74%
$4.00Official Price
200.0K$3.12-74%
$12.00Official Price
>200.0K$4.68-74%
$18.00Official Price
200.0K$0.052-74%
$0.200Official Price
>200.0K$0.104-74%
$0.400Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run Gemini 3.1 Pro — pick the tier that matches your workload.

  • · Gemini 3.1 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 3.1 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 3.1 Pro Preview API — Compatible con OpenAI SDK

Llame a gemini-3.1-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1M reportada en pruebas.

ejemplo 1

Capacidades de Gemini 3.1 Pro Preview API

Entradas multimodales + Grounding

Gemini 3.1 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite Search grounding más contexto URL para respuestas verificables.

ejemplo 2

Thinking + herramientas de agente

Thinking, function calling, structured outputs, ejecución de código y búsqueda de archivos son compatibles para razonamiento agéntico y automatización.

ejemplo 3

Contexto 1M + controles Ops

Límite de tokens de entrada de 1,048,576 con hasta 65,536 tokens de salida. Caching y Batch API admiten pipelines de contexto largo.

ejemplo 4

Por qué usar Gemini 3.1 Pro en EvoLink

EvoLink expone Gemini 3.1 Pro Preview a través de un endpoint familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para seguimiento de producción.

Formato OpenAI SDK

Llame a /v1/chat/completions usando model + messages. El array de messages es obligatorio (longitud mínima 1).

Métricas de uso granulares

El uso incluye prompt_tokens, completion_tokens, total_tokens y completion_tokens_details.reasoning_tokens.

Señal de calidad del modelo

Mejor seguimiento de instrucciones, consistencia de respuesta mejorada y resultados sólidos en benchmarks de codificación y razonamiento.

Cómo llamar a Gemini 3.1 Pro Preview

Use el formato OpenAI SDK y la cadena de modelo gemini-3.1-pro-preview.

1

Paso 1 - Configurar el modelo

Use model: "gemini-3.1-pro-preview" en el cuerpo de la solicitud.

2

Paso 2 - Enviar mensajes

Proporcione un array de messages con pares role/content (longitud mínima 1).

3

Paso 3 - Inspeccionar salida + uso

Lea choices[0].message.content y rastree usage.prompt_tokens, completion_tokens y reasoning_tokens.

Especificaciones técnicas

Detalles clave para Gemini 3.1 Pro Preview API

Compatibilidad

Formato OpenAI SDK

Use la interfaz estándar /v1/chat/completions.

Modelo

Cadena de modelo

Establezca model en gemini-3.1-pro-preview para este endpoint.

Analytics

Desglose de uso

La respuesta incluye totales de prompt/completion más categorías de tokens detalladas.

Razonamiento

Tokens de razonamiento

completion_tokens_details incluye reasoning_tokens para análisis más profundo.

Multimodal

Enfoque en razonamiento multimodal

Razonamiento multimodal más fuerte y mejor uso de herramientas.

Contexto

Ventana de contexto 1M

Ventana de contexto 1M que admite flujos de agentes largos.

Preguntas frecuentes de Gemini 3.1 Pro API

Everything you need to know about the product and billing.

Gemini 3.1 Pro es la última iteración de la familia de modelos multimodales Gemini 3 de Google. Esta página se centra en Gemini 3.1 Pro Preview (código de modelo: gemini-3.1-pro-preview), que admite entradas de texto, imagen, video, audio y PDF con salida de texto, además de thinking, function calling, structured outputs, ejecución de código, búsqueda de archivos, search grounding, contexto URL, caching y Batch API.
Use "gemini-3.1-pro-preview" como valor de model para Gemini 3.1 Pro Preview API en EvoLink. Esta es la cadena de modelo recomendada para el endpoint de chat completions compatible con OpenAI.
Envíe un POST a api.evolink.ai/v1/chat/completions. Incluya Authorization: Bearer <token> y Content-Type: application/json usando una clave API del dashboard de EvoLink.
Formato OpenAI SDK chat completions con model y un array de messages requerido (longitud mínima 1). Cada mensaje usa pares role/content, las entradas multimodales pueden pasarse como content parts y las opciones comunes incluyen stream, max_tokens y temperature.
Las entradas incluyen texto, imagen, video, audio y PDF, y la salida es solo texto. La generación de imágenes o audio no es compatible con este modelo Gemini 3.1 Pro Preview.
El límite de tokens de entrada es 1,048,576 (contexto 1M) y los tokens de salida máximos son 65,536. Esto admite documentos largos y contextos de múltiples turnos.
Se admiten thinking, function calling, structured outputs, ejecución de código, búsqueda de archivos, search grounding, contexto URL, caching y Batch API. Para el contexto URL, function calling con tool use actualmente no es compatible y puede pasar hasta 20 URLs con máximo 34MB por URL.
Las respuestas de EvoLink incluyen usage.prompt_tokens, completion_tokens, total_tokens, más prompt_tokens_details y completion_tokens_details.reasoning_tokens. Use estos campos para monitorear costo, latencia y consumo de tokens de razonamiento.