Gemini 3.1 Pro 预览版 API
定价
| 方案 | 上下文窗口 | 最大输出 | 输入 | 输出 | 缓存读取 |
|---|---|---|---|---|---|
| Gemini 3.1 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% (115.2 Credits) >200.0K$3.200-20% (230.4 Credits) | ≤200.0K$9.60-20% (691.2 Credits) >200.0K$14.40-20% (1,036.8 Credits) | ≤200.0K$0.160-20% (11.5 Credits) >200.0K$0.319-20% (23.0 Credits) |
| Gemini 3.1 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% (37.4 Credits) >200.0K$1.04-74% (74.9 Credits) | ≤200.0K$3.12-74% (224.6 Credits) >200.0K$4.68-74% (337.0 Credits) | ≤200.0K$0.052-74% (3.7 Credits) >200.0K$0.104-74% (7.5 Credits) |
定价说明: 价格同时显示 USD 和 Credits;默认单位按 / 1M tokens 计算,特殊项目会单独标注。
缓存命中: 适用于缓存的提示词 Tokens 价格。
在 EvoLink 上运行 Gemini 3.1 Pro 有两种方式,您可以选择适合您需求的层级。
- · Gemini 3.1 Pro: 默认层级,适合生产环境的可靠性和可预测的可用性。
- · Gemini 3.1 Pro (Beta): 低成本层级,尽力而为的可用性;推荐用于可接受重试的工作负载。
Gemini 3.1 Pro 预览版 API — 兼容 OpenAI SDK
通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3.1-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

Gemini 3.1 Pro 预览版 API 的能力
为什么在 EvoLink 上使用 Gemini 3.1 Pro
EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.1 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。
OpenAI SDK 格式
使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。
细粒度的用量指标
用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。
模型质量信号
更强的指令遵循能力、改进的响应一致性,在编码和推理基准测试中表现出色。
如何调用 Gemini 3.1 Pro 预览版
使用 OpenAI SDK 格式和 gemini-3.1-pro-preview 模型字符串。
第 1 步 - 设置模型
在请求正文中使用 model: "gemini-3.1-pro-preview"。
第 2 步 - 发送消息
提供包含角色/内容对的消息数组(最小长度为 1)。
第 3 步 - 检查输出与用量
读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。
技术规格
Gemini 3.1 Pro 预览版 API 的关键细节
OpenAI SDK 格式
使用标准的 /v1/chat/completions 接口。
模型字符串
为此端点将模型设置为 gemini-3.1-pro-preview。
用量明细
响应包含提示/补全总量以及详细的 Token 类别。
推理 Token
completion_tokens_details 包含用于深度分析的 reasoning_tokens。
聚焦多模态推理
更强的多模态推理和工具使用能力。
1M 上下文窗口
1M 上下文窗口支持长周期的智能体流程。
Gemini 3.1 Pro API 常见问题
Everything you need to know about the product and billing.


