HappyHorse 1.0 próximamenteMás información

Gemini 3.0 Vista previa profesional API

Acceda a gemini-3-pro-preview a través del punto final /v1/chat/completions compatible con EvoLink. Creado para codificación, razonamiento multimodal y uso de herramientas con contabilidad de tokens detallada.
Precio: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

Máxima estabilidad con 99.9% de disponibilidad garantizada. Recomendado para producción.

Todas las versiones usan el mismo endpoint API. Solo cambia el parámetro model.

Gemini 3.0 Vista previa profesional API — OpenAI SDK Compatible

Llame a gemini-3-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1 millón reportada en las pruebas.

ejemplo 1

Capacidades de Gemini 3.0 Pro Preview API

Entradas Multimodales + Puesta a Tierra

Gemini 3 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite la conexión a tierra de búsqueda más el contexto URL para respuestas verificables.

ejemplo 2

Herramientas de pensamiento + agente

El pensamiento, la llamada a funciones, los resultados estructurados, la ejecución de código y la búsqueda de archivos son compatibles con el razonamiento y la automatización de agentes.

ejemplo 3

1M Contexto + Controles de operaciones

El límite de tokens de entrada es 1.048.576 con hasta 65.536 tokens de salida. El almacenamiento en caché y el lote API admiten canalizaciones de contexto largo.

ejemplo 4

Por qué utilizar Gemini 3.0 Pro en EvoLink

EvoLink expone Gemini 3.0 Pro Preview a través de un punto final familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para el seguimiento del nivel de producción.

OpenAI SDK Formato

Llame a /v1/chat/completions usando modelo + mensajes. La matriz de mensajes es obligatoria (longitud mínima 1).

Métricas de uso granulares

El uso incluye tokens de aviso, tokens de finalización, tokens totales y detalles de tokens de finalización.tokens de razonamiento.

Señal de calidad del modelo

Vercel informa un seguimiento de instrucciones más sólido, una coherencia de respuesta mejorada y resultados sólidos en sus evaluaciones de Next.js.

Cómo llamar a Gemini 3.0 Pro Vista previa

Utilice el formato OpenAI SDK y la cadena del modelo gemini-3-pro-preview.

1

Paso 1: configurar el modelo

Utilice el modelo: "gemini-3-pro-preview" en el cuerpo de la solicitud.

2

Paso 2: enviar mensajes

Proporcione una matriz de mensajes con pares de rol/contenido (longitud mínima 1).

3

Paso 3: inspeccionar la salida y el uso

Lea las opciones[0].message.content y realice un seguimiento del uso.prompt_tokens, complete_tokens y Reasoning_tokens.

Especificaciones técnicas

Detalles clave para Gemini 3.0 Pro Preview API

Compatibilidad

OpenAI SDK Formato

Utilice la interfaz estándar /v1/chat/completions.

Modelo

Cadena modelo

Establezca el modelo en gemini-3-pro-preview para este punto final.

Analítica

Desglose de uso

La respuesta incluye totales de avisos/finalización más categorías de tokens detalladas.

Razonamiento

Fichas de razonamiento

complete_tokens_details incluye Reasoning_tokens para un análisis más profundo.

Multimodal

Enfoque de razonamiento multimodal

Vercel observa un razonamiento multimodal más sólido y el uso de herramientas en las pruebas.

Contexto

Ventana de contexto de 1M

Vercel informa una ventana de contexto de 1 millón que admite flujos de agentes largos.

Gemini 3.0 Pro API Preguntas frecuentes

Everything you need to know about the product and billing.

Gemini 3 es la última familia de modelos multimodales de Google. Esta página se centra en Gemini 3 Pro Preview (código de modelo: gemini-3-pro-preview), que admite entradas de texto, imágenes, video, audio y PDF con salida de texto, además de pensamiento, llamada de funciones, salidas estructuradas, ejecución de código, búsqueda de archivos, base de búsqueda, contexto URL, almacenamiento en caché y compatibilidad con Batch API. Google enumera un límite de conocimiento de enero de 2025 para este modelo de vista previa.
Utilice "gemini-3-pro-preview" como valor de modelo para Gemini 3 Pro Preview API en EvoLink. Esta es la cadena de modelo recomendada para el punto final de finalización de chat compatible con OpenAI.
Envíe una solicitud POST a api.evolink.ai/v1/chat/completions.. Incluya autorización: portador <token> y tipo de contenido: aplicación/json usando una clave API desde su panel de control EvoLink.
OpenAI SDK formato de finalización de chat con modelo y una matriz de mensajes requerida (longitud mínima 1). Cada mensaje utiliza pares de rol/contenido, las entradas multimodales se pueden pasar como partes de contenido y las opciones comunes incluyen flujo, max_tokens y temperatura.
Las entradas incluyen texto, imagen, video, audio y PDF, y la salida es solo texto. La generación de imágenes o audio no es compatible con este modelo Gemini 3 Pro Preview.
El límite de tokens de entrada es 1.048.576 (contexto de 1 millón) y los tokens de salida máximos son 65.536. Esto admite documentos largos y contextos de varios turnos.
Se admiten pensamiento, llamada de funciones, salidas estructuradas, ejecución de código, búsqueda de archivos, base de búsqueda, contexto URL, almacenamiento en caché y lote API. Para el contexto URL, la llamada a funciones con el uso de herramientas actualmente no es compatible y puede pasar hasta 20 URL con un máximo de 34 MB por URL.
Las respuestas EvoLink incluyen use.prompt_tokens, complete_tokens, total_tokens, además de Prompt_tokens_details y complete_tokens_details.reasoning_tokens. Utilice estos campos para monitorear el costo, la latencia y el consumo de tokens de razonamiento.
La versión Beta es experimental: más barata, pero sin disponibilidad garantizada al 100%. Si aparece este error: 1. Espera y reintenta: normalmente se recupera en 5-10 minutos. 2. Cambia a la versión oficial: modifica el model ID de gemini-3-pro-preview-beta a gemini-3-pro-preview. La versión oficial garantiza 99.9% de uptime