Gemini 3.0 Pro 预览版 API
$1.865 - 3.729(~ 126.8 - 253.6 credits) per 1M input tokens; $11.182 - 16.774(~ 760.4 - 1140.6 credits) per 1M output tokens
$0.187 - 0.374(~ 12.7 - 25.4 credits) per 1M cache read tokens
Google Search grounding charged separately per query.
稳定性最高,保证 99.9% 可用性。推荐用于生产环境。
所有版本使用同一个 API 端点,仅 model 参数不同。
Gemini 3.0 Pro 预览版 API — 兼容 OpenAI SDK
通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

Gemini 3.0 Pro 预览版 API 的能力
为什么在 EvoLink 上使用 Gemini 3.0 Pro
EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.0 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。
OpenAI SDK 格式
使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。
细粒度的用量指标
用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。
模型质量信号
Vercel 报告称其具备更强的指令遵循能力、改进的响应一致性,并在其 Next.js 评估中表现出色。
如何调用 Gemini 3.0 Pro 预览版
使用 OpenAI SDK 格式和 gemini-3-pro-preview 模型字符串。
第 1 步 - 设置模型
在请求正文中使用 model: "gemini-3-pro-preview"。
第 2 步 - 发送消息
提供包含角色/内容对的消息数组(最小长度为 1)。
第 3 步 - 检查输出与用量
读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。
技术规格
Gemini 3.0 Pro 预览版 API 的关键细节
OpenAI SDK 格式
使用标准的 /v1/chat/completions 接口。
模型字符串
为此端点将模型设置为 gemini-3-pro-preview。
用量明细
响应包含提示/补全总量以及详细的 Token 类别。
推理 Token
completion_tokens_details 包含用于深度分析的 reasoning_tokens。
聚焦多模态推理
Vercel 在测试中指出其具备更强的多模态推理和工具使用能力。
1M 上下文窗口
Vercel 报告 1M 上下文窗口支持长周期的智能体流程。
Gemini 3.0 Pro API 常见问题
Everything you need to know about the product and billing.


