Gemini 3.1 Pro 预览版 API
通过 EvoLink 兼容 OpenAI 的 /v1/chat/completions 端点访问 gemini-3.1-pro-preview。专为编程��多模态推理和工具使用而设计,具备详细的 Token 统计功能。
定价
| 方案 | 上下文窗口 | 最大输出 | 输入 | 输出 | 缓存读取 |
|---|---|---|---|---|---|
| Gemini 3.1 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% $2.00官方价格 >200.0K$3.200-20% $4.00官方价格 | ≤200.0K$9.60-20% $12.00官方价格 >200.0K$14.40-20% $18.00官方价格 | ≤200.0K$0.160-20% $0.200官方价格 >200.0K$0.319-20% $0.400官方价格 |
| Gemini 3.1 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% $2.00官方价格 >200.0K$1.04-74% $4.00官方价格 | ≤200.0K$3.12-74% $12.00官方价格 >200.0K$4.68-74% $18.00官方价格 | ≤200.0K$0.052-74% $0.200官方价格 >200.0K$0.104-74% $0.400官方价格 |
定价说明: 价格单位:USD / 1M tokens
缓存命中: 适用于缓存的提示词 Tokens 价格。
在 EvoLink 上运行 Gemini 3.1 Pro 有两种方式,您可以选择适合您需求的层级。
- · Gemini 3.1 Pro: 默认层级,适合生产环境的可靠性和可预测的可用性。
- · Gemini 3.1 Pro (Beta): 低成本层级,尽力而为的可用性;推荐用于可接受重试的工作负载。
Gemini 3.1 Pro 预览版 API — 兼容 OpenAI SDK
通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3.1-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

Gemini 3.1 Pro 预览版 API 的能力
为什么在 EvoLink 上使用 Gemini 3.1 Pro
EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.1 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。
OpenAI SDK 格式
使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。
细粒度的用量指标
用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。
模型质量信号
更强的指令遵循能力、改进的响应一致性,在编码和推理基准测试中表现出色。
如何调用 Gemini 3.1 Pro 预览版
使用 OpenAI SDK 格式和 gemini-3.1-pro-preview 模型字符串。
第 1 步 - 设置模型
在请求正文中使用 model: "gemini-3.1-pro-preview"。
第 2 步 - 发送消息
提供包含角色/内容对的消息数组(最小长度为 1)。
第 3 步 - 检查输出与用量
读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。
技术规格
Gemini 3.1 Pro 预览版 API 的关键细节
OpenAI SDK 格式
使用标准的 /v1/chat/completions 接口。
模型字符串
为此端点将模型设置为 gemini-3.1-pro-preview。
用量明细
响应包含提示/补全总量以及详细的 Token 类别。
推理 Token
completion_tokens_details 包含用于深度分析的 reasoning_tokens。
聚焦多模态推理
更强的多模态推理和工具使用能力。
1M 上下文窗口
1M 上下文窗口支持长周期的智能体流程。
Gemini 3.1 Pro API 常见问题
Everything you need to know about the product and billing.


