Seedance 2.0 API — Coming SoonGet early access

Gemini 3.0 Vista previa profesional API

Acceda a gemini-3-pro-preview a través del punto final /v1/chat/completions compatible con EvoLink. Creado para codificación, razonamiento multimodal y uso de herramientas con contabilidad de tokens detallada.

Run With API
Using coding CLIs? Run Gemini 3 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
Gemini 3 Pro1.05M65.5K
200.0K$1.600-20%
$2.00Official Price
>200.0K$3.200-20%
$4.00Official Price
200.0K$9.60-20%
$12.00Official Price
>200.0K$14.40-20%
$18.00Official Price
200.0K$0.160-20%
$0.200Official Price
>200.0K$0.319-20%
$0.400Official Price
Gemini 3 Pro (Beta)1.05M65.5K
200.0K$0.520-74%
$2.00Official Price
>200.0K$1.04-74%
$4.00Official Price
200.0K$3.12-74%
$12.00Official Price
>200.0K$4.68-74%
$18.00Official Price
200.0K$0.052-74%
$0.200Official Price
>200.0K$0.104-74%
$0.400Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run Gemini 3 Pro — pick the tier that matches your workload.

  • · Gemini 3 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 3 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 3.0 Vista previa profesional API — OpenAI SDK Compatible

Llame a gemini-3-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1 millón reportada en las pruebas.

ejemplo 1

Capacidades de Gemini 3.0 Pro Preview API

Entradas Multimodales + Puesta a Tierra

Gemini 3 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite la conexión a tierra de búsqueda más el contexto URL para respuestas verificables.

ejemplo 2

Herramientas de pensamiento + agente

El pensamiento, la llamada a funciones, los resultados estructurados, la ejecución de código y la búsqueda de archivos son compatibles con el razonamiento y la automatización de agentes.

ejemplo 3

1M Contexto + Controles de operaciones

El límite de tokens de entrada es 1.048.576 con hasta 65.536 tokens de salida. El almacenamiento en caché y el lote API admiten canalizaciones de contexto largo.

ejemplo 4

Por qué utilizar Gemini 3.0 Pro en EvoLink

EvoLink expone Gemini 3.0 Pro Preview a través de un punto final familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para el seguimiento del nivel de producción.

OpenAI SDK Formato

Llame a /v1/chat/completions usando modelo + mensajes. La matriz de mensajes es obligatoria (longitud mínima 1).

Métricas de uso granulares

El uso incluye tokens de aviso, tokens de finalización, tokens totales y detalles de tokens de finalización.tokens de razonamiento.

Señal de calidad del modelo

Vercel informa un seguimiento de instrucciones más sólido, una coherencia de respuesta mejorada y resultados sólidos en sus evaluaciones de Next.js.

Cómo llamar a Gemini 3.0 Pro Vista previa

Utilice el formato OpenAI SDK y la cadena del modelo gemini-3-pro-preview.

1

Paso 1: configurar el modelo

Utilice el modelo: "gemini-3-pro-preview" en el cuerpo de la solicitud.

2

Paso 2: enviar mensajes

Proporcione una matriz de mensajes con pares de rol/contenido (longitud mínima 1).

3

Paso 3: inspeccionar la salida y el uso

Lea las opciones[0].message.content y realice un seguimiento del uso.prompt_tokens, complete_tokens y Reasoning_tokens.

Especificaciones técnicas

Detalles clave para Gemini 3.0 Pro Preview API

Compatibilidad

OpenAI SDK Formato

Utilice la interfaz estándar /v1/chat/completions.

Modelo

Cadena modelo

Establezca el modelo en gemini-3-pro-preview para este punto final.

Analítica

Desglose de uso

La respuesta incluye totales de avisos/finalización más categorías de tokens detalladas.

Razonamiento

Fichas de razonamiento

complete_tokens_details incluye Reasoning_tokens para un análisis más profundo.

Multimodal

Enfoque de razonamiento multimodal

Vercel observa un razonamiento multimodal más sólido y el uso de herramientas en las pruebas.

Contexto

Ventana de contexto de 1M

Vercel informa una ventana de contexto de 1 millón que admite flujos de agentes largos.

Gemini 3.0 Pro API Preguntas frecuentes

Everything you need to know about the product and billing.

Gemini 3 es la última familia de modelos multimodales de Google. Esta página se centra en Gemini 3 Pro Preview (código de modelo: gemini-3-pro-preview), que admite entradas de texto, imágenes, video, audio y PDF con salida de texto, además de pensamiento, llamada de funciones, salidas estructuradas, ejecución de código, búsqueda de archivos, base de búsqueda, contexto URL, almacenamiento en caché y compatibilidad con Batch API. Google enumera un límite de conocimiento de enero de 2025 para este modelo de vista previa.
Utilice "gemini-3-pro-preview" como valor de modelo para Gemini 3 Pro Preview API en EvoLink. Esta es la cadena de modelo recomendada para el punto final de finalización de chat compatible con OpenAI.
Envíe una solicitud POST a api.evolink.ai/v1/chat/completions.. Incluya autorización: portador <token> y tipo de contenido: aplicación/json usando una clave API desde su panel de control EvoLink.
OpenAI SDK formato de finalización de chat con modelo y una matriz de mensajes requerida (longitud mínima 1). Cada mensaje utiliza pares de rol/contenido, las entradas multimodales se pueden pasar como partes de contenido y las opciones comunes incluyen flujo, max_tokens y temperatura.
Las entradas incluyen texto, imagen, video, audio y PDF, y la salida es solo texto. La generación de imágenes o audio no es compatible con este modelo Gemini 3 Pro Preview.
El límite de tokens de entrada es 1.048.576 (contexto de 1 millón) y los tokens de salida máximos son 65.536. Esto admite documentos largos y contextos de varios turnos.
Se admiten pensamiento, llamada de funciones, salidas estructuradas, ejecución de código, búsqueda de archivos, base de búsqueda, contexto URL, almacenamiento en caché y lote API. Para el contexto URL, la llamada a funciones con el uso de herramientas actualmente no es compatible y puede pasar hasta 20 URL con un máximo de 34 MB por URL.
Las respuestas EvoLink incluyen use.prompt_tokens, complete_tokens, total_tokens, además de Prompt_tokens_details y complete_tokens_details.reasoning_tokens. Utilice estos campos para monitorear el costo, la latencia y el consumo de tokens de razonamiento.