Gemini 3.0 Vista previa profesional API
$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens
$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens
Google Search grounding charged separately per query.
Máxima estabilidad con 99.9% de disponibilidad garantizada. Recomendado para producción.
Todas las versiones usan el mismo endpoint API. Solo cambia el parámetro model.
Gemini 3.0 Vista previa profesional API — OpenAI SDK Compatible
Llame a gemini-3-pro-preview usando el formato OpenAI SDK a través de EvoLink. Obtenga uso más tokens de razonamiento en las respuestas y aproveche una ventana de contexto de 1 millón reportada en las pruebas.

Capacidades de Gemini 3.0 Pro Preview API
Entradas Multimodales + Puesta a Tierra
Gemini 3 Pro Preview API acepta entradas de texto, código, imagen, video, audio y PDF con salida de solo texto, y admite la conexión a tierra de búsqueda más el contexto URL para respuestas verificables.

Herramientas de pensamiento + agente
El pensamiento, la llamada a funciones, los resultados estructurados, la ejecución de código y la búsqueda de archivos son compatibles con el razonamiento y la automatización de agentes.

1M Contexto + Controles de operaciones
El límite de tokens de entrada es 1.048.576 con hasta 65.536 tokens de salida. El almacenamiento en caché y el lote API admiten canalizaciones de contexto largo.

Por qué utilizar Gemini 3.0 Pro en EvoLink
EvoLink expone Gemini 3.0 Pro Preview a través de un punto final familiar de estilo OpenAI SDK, con autenticación explícita y estadísticas de uso detalladas para el seguimiento del nivel de producción.
OpenAI SDK Formato
Llame a /v1/chat/completions usando modelo + mensajes. La matriz de mensajes es obligatoria (longitud mínima 1).
Métricas de uso granulares
El uso incluye tokens de aviso, tokens de finalización, tokens totales y detalles de tokens de finalización.tokens de razonamiento.
Señal de calidad del modelo
Vercel informa un seguimiento de instrucciones más sólido, una coherencia de respuesta mejorada y resultados sólidos en sus evaluaciones de Next.js.
Cómo llamar a Gemini 3.0 Pro Vista previa
Utilice el formato OpenAI SDK y la cadena del modelo gemini-3-pro-preview.
Paso 1: configurar el modelo
Utilice el modelo: "gemini-3-pro-preview" en el cuerpo de la solicitud.
Paso 2: enviar mensajes
Proporcione una matriz de mensajes con pares de rol/contenido (longitud mínima 1).
Paso 3: inspeccionar la salida y el uso
Lea las opciones[0].message.content y realice un seguimiento del uso.prompt_tokens, complete_tokens y Reasoning_tokens.
Especificaciones técnicas
Detalles clave para Gemini 3.0 Pro Preview API
OpenAI SDK Formato
Utilice la interfaz estándar /v1/chat/completions.
Cadena modelo
Establezca el modelo en gemini-3-pro-preview para este punto final.
Desglose de uso
La respuesta incluye totales de avisos/finalización más categorías de tokens detalladas.
Fichas de razonamiento
complete_tokens_details incluye Reasoning_tokens para un análisis más profundo.
Enfoque de razonamiento multimodal
Vercel observa un razonamiento multimodal más sólido y el uso de herramientas en las pruebas.
Ventana de contexto de 1M
Vercel informa una ventana de contexto de 1 millón que admite flujos de agentes largos.
Gemini 3.0 Pro API Preguntas frecuentes
Everything you need to know about the product and billing.