Gemini 3.1 Pro 预览版 API
$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens
$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens
Google Search grounding charged separately per query.
稳定性最高,保证 99.9% 可用性。推荐用于生产环境。
所有版本使用同一个 API 端点,仅 model 参数不同。
Gemini 3.1 Pro 预览版 API — 兼容 OpenAI SDK
通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3.1-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

Gemini 3.1 Pro 预览版 API 的能力
为什么在 EvoLink 上使用 Gemini 3.1 Pro
EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.1 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。
OpenAI SDK 格式
使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。
细粒度的用量指标
用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。
模型质量信号
更强的指令遵循能力、改进的响应一致性,在编码和推理基准测试中表现出色。
如何调用 Gemini 3.1 Pro 预览版
使用 OpenAI SDK 格式和 gemini-3.1-pro-preview 模型字符串。
第 1 步 - 设置模型
在请求正文中使用 model: "gemini-3.1-pro-preview"。
第 2 步 - 发送消息
提供包含角色/内容对的消息数组(最小长度为 1)。
第 3 步 - 检查输出与用量
读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。
技术规格
Gemini 3.1 Pro 预览版 API 的关键细节
OpenAI SDK 格式
使用标准的 /v1/chat/completions 接口。
模型字符串
为此端点将模型设置为 gemini-3.1-pro-preview。
用量明细
响应包含提示/补全总量以及详细的 Token 类别。
推理 Token
completion_tokens_details 包含用于深度分析的 reasoning_tokens。
聚焦多模态推理
更强的多模态推理和工具使用能力。
1M 上下文窗口
1M 上下文窗口支持长周期的智能体流程。
Gemini 3.1 Pro API 常见问题
Everything you need to know about the product and billing.


