La API de Seedance 2.0 ya está disponibleEmpezar ahora

Gemini 3.1 Pro Preview API

Acceda a gemini-3.1-pro-preview a través del endpoint /v1/chat/completions compatible con OpenAI de EvoLink. Diseñado para codificación, razonamiento multimodal y uso de herramientas con contabilidad detallada de tokens.
Tipo de modelo:
Precio: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

Máxima estabilidad con 99.9% de disponibilidad garantizada. Recomendado para producción.

Todas las versiones usan el mismo endpoint API. Solo cambia el parámetro model.

Gemini 3.1 Pro Preview API — Compatible con OpenAI SDK

Llame a gemini-3.1-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1M reportada en pruebas.

ejemplo 1

Capacidades de Gemini 3.1 Pro Preview API

Entradas multimodales + Grounding

Gemini 3.1 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite Search grounding más contexto URL para respuestas verificables.

ejemplo 2

Thinking + herramientas de agente

Thinking, function calling, structured outputs, ejecución de código y búsqueda de archivos son compatibles para razonamiento agéntico y automatización.

ejemplo 3

Contexto 1M + controles Ops

Límite de tokens de entrada de 1,048,576 con hasta 65,536 tokens de salida. Caching y Batch API admiten pipelines de contexto largo.

ejemplo 4

Por qué usar Gemini 3.1 Pro en EvoLink

EvoLink expone Gemini 3.1 Pro Preview a través de un endpoint familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para seguimiento de producción.

Formato OpenAI SDK

Llame a /v1/chat/completions usando model + messages. El array de messages es obligatorio (longitud mínima 1).

Métricas de uso granulares

El uso incluye prompt_tokens, completion_tokens, total_tokens y completion_tokens_details.reasoning_tokens.

Señal de calidad del modelo

Mejor seguimiento de instrucciones, consistencia de respuesta mejorada y resultados sólidos en benchmarks de codificación y razonamiento.

Cómo llamar a Gemini 3.1 Pro Preview

Use el formato OpenAI SDK y la cadena de modelo gemini-3.1-pro-preview.

1

Paso 1 - Configurar el modelo

Use model: "gemini-3.1-pro-preview" en el cuerpo de la solicitud.

2

Paso 2 - Enviar mensajes

Proporcione un array de messages con pares role/content (longitud mínima 1).

3

Paso 3 - Inspeccionar salida + uso

Lea choices[0].message.content y rastree usage.prompt_tokens, completion_tokens y reasoning_tokens.

Especificaciones técnicas

Detalles clave para Gemini 3.1 Pro Preview API

Compatibilidad

Formato OpenAI SDK

Use la interfaz estándar /v1/chat/completions.

Modelo

Cadena de modelo

Establezca model en gemini-3.1-pro-preview para este endpoint.

Analytics

Desglose de uso

La respuesta incluye totales de prompt/completion más categorías de tokens detalladas.

Razonamiento

Tokens de razonamiento

completion_tokens_details incluye reasoning_tokens para análisis más profundo.

Multimodal

Enfoque en razonamiento multimodal

Razonamiento multimodal más fuerte y mejor uso de herramientas.

Contexto

Ventana de contexto 1M

Ventana de contexto 1M que admite flujos de agentes largos.

Preguntas frecuentes de Gemini 3.1 Pro API

Everything you need to know about the product and billing.

Gemini 3.1 Pro es la última iteración de la familia de modelos multimodales Gemini 3 de Google. Esta página se centra en Gemini 3.1 Pro Preview (código de modelo: gemini-3.1-pro-preview), que admite entradas de texto, imagen, video, audio y PDF con salida de texto, además de thinking, function calling, structured outputs, ejecución de código, búsqueda de archivos, search grounding, contexto URL, caching y Batch API.
Use "gemini-3.1-pro-preview" como valor de model para Gemini 3.1 Pro Preview API en EvoLink. Esta es la cadena de modelo recomendada para el endpoint de chat completions compatible con OpenAI.
Envíe un POST a api.evolink.ai/v1/chat/completions. Incluya Authorization: Bearer <token> y Content-Type: application/json usando una clave API del dashboard de EvoLink.
Formato OpenAI SDK chat completions con model y un array de messages requerido (longitud mínima 1). Cada mensaje usa pares role/content, las entradas multimodales pueden pasarse como content parts y las opciones comunes incluyen stream, max_tokens y temperature.
Las entradas incluyen texto, imagen, video, audio y PDF, y la salida es solo texto. La generación de imágenes o audio no es compatible con este modelo Gemini 3.1 Pro Preview.
El límite de tokens de entrada es 1,048,576 (contexto 1M) y los tokens de salida máximos son 65,536. Esto admite documentos largos y contextos de múltiples turnos.
Se admiten thinking, function calling, structured outputs, ejecución de código, búsqueda de archivos, search grounding, contexto URL, caching y Batch API. Para el contexto URL, function calling con tool use actualmente no es compatible y puede pasar hasta 20 URLs con máximo 34MB por URL.
Las respuestas de EvoLink incluyen usage.prompt_tokens, completion_tokens, total_tokens, más prompt_tokens_details y completion_tokens_details.reasoning_tokens. Use estos campos para monitorear costo, latencia y consumo de tokens de razonamiento.
La versión Beta es experimental: más barata, pero sin disponibilidad garantizada al 100%. Si aparece este error: 1. Espera y reintenta: normalmente se recupera en 5-10 minutos. 2. Cambia a la versión oficial: modifica el model ID de gemini-3-1-pro-beta a gemini-3-1-pro. La versión oficial garantiza 99.9% de uptime
Gemini 3.1 Pro API (gemini-3.1-pro-preview) | Finalizaciones de chat compatibles con OpenAI | EvoLink