Seedance 2.0 API — 即将上线Get early access

Gemini 3.1 Pro 预览版 API

通过 EvoLink 兼容 OpenAI 的 /v1/chat/completions 端点访问 gemini-3.1-pro-preview。专为编程��多模态推理和工具使用而设计,具备详细的 Token 统计功能。

Run With API
Using coding CLIs? Run Gemini 3.1 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

定价

方案上下文窗口最大输出输入输出缓存读取
Gemini 3.1 Pro1.05M65.5K
200.0K$1.600-20%
$2.00官方价格
>200.0K$3.200-20%
$4.00官方价格
200.0K$9.60-20%
$12.00官方价格
>200.0K$14.40-20%
$18.00官方价格
200.0K$0.160-20%
$0.200官方价格
>200.0K$0.319-20%
$0.400官方价格
Gemini 3.1 Pro (Beta)1.05M65.5K
200.0K$0.520-74%
$2.00官方价格
>200.0K$1.04-74%
$4.00官方价格
200.0K$3.12-74%
$12.00官方价格
>200.0K$4.68-74%
$18.00官方价格
200.0K$0.052-74%
$0.200官方价格
>200.0K$0.104-74%
$0.400官方价格

定价说明: 价格单位:USD / 1M tokens

缓存命中: 适用于缓存的提示词 Tokens 价格。

在 EvoLink 上运行 Gemini 3.1 Pro 有两种方式,您可以选择适合您需求的层级。

  • · Gemini 3.1 Pro: 默认层级,适合生产环境的可靠性和可预测的可用性。
  • · Gemini 3.1 Pro (Beta): 低成本层级,尽力而为的可用性;推荐用于可接受重试的工作负载。

Gemini 3.1 Pro 预览版 API — 兼容 OpenAI SDK

通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3.1-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

示例 1

Gemini 3.1 Pro 预览版 API 的能力

多模态输入 + 接地

Gemini 3.1 Pro 预览版 API 接受文本、代码、图像、视频、音频和 PDF 输入,并返回纯文本输出。支持搜索接地(Search Grounding)及 URL 上下文,以提供可验证的回答。

示例 2

思考 + 智能体工具

支持思考(Thinking)、函数调用、结构化输出、代码执行和文件搜索,适用于智能体推理和自动化场景。

示例 3

1M 上下文 + 运营控制

输入 Token 限制为 1,048,576,输出 Token 高达 65,536。支持缓存和批处理 API,助力长上下文流水线。

示例 4

为什么在 EvoLink 上使用 Gemini 3.1 Pro

EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.1 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。

OpenAI SDK 格式

使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。

细粒度的用量指标

用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。

模型质量信号

更强的指令遵循能力、改进的响应一致性,在编码和推理基准测试中表现出色。

如何调用 Gemini 3.1 Pro 预览版

使用 OpenAI SDK 格式和 gemini-3.1-pro-preview 模型字符串。

1

第 1 步 - 设置模型

在请求正文中使用 model: "gemini-3.1-pro-preview"。

2

第 2 步 - 发送消息

提供包含角色/内容对的消息数组(最小长度为 1)。

3

第 3 步 - 检查输出与用量

读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。

技术规格

Gemini 3.1 Pro 预览版 API 的关键细节

兼容性

OpenAI SDK 格式

使用标准的 /v1/chat/completions 接口。

模型

模型字符串

为此端点将模型设置为 gemini-3.1-pro-preview。

分析

用量明细

响应包含提示/补全总量以及详细的 Token 类别。

推理

推理 Token

completion_tokens_details 包含用于深度分析的 reasoning_tokens。

多模态

聚焦多模态推理

更强的多模态推理和工具使用能力。

上下文

1M 上下文窗口

1M 上下文窗口支持长周期的智能体流程。

Gemini 3.1 Pro API 常见问题

Everything you need to know about the product and billing.

Gemini 3.1 Pro 是 Google Gemini 3 多模态模型系列的最新迭代。本页面专注于 Gemini 3.1 Pro 预览版(模型代码:gemini-3.1-pro-preview),它支持文本、图像、视频、音频和 PDF 输入并输出文本,同时支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。
在 EvoLink 的 Gemini 3.1 Pro 预览版 API 中,请将模型值设为 "gemini-3.1-pro-preview"。这是兼容 OpenAI 聊天补全端点的推荐模型字符串。
api.evolink.ai/v1/chat/completions 发送 POST 请求。使用来自 EvoLink 控制台的 API 密钥,并在请求头中包含 Authorization: Bearer <token> 和 Content-Type: application/json。
采用 OpenAI SDK 聊天补全格式,包含 model 和必填的 messages 数组(最小长度为 1)。每条消息使用角色/内容对,多模态输入可以作为内容部分传递,常用选项包括 stream、max_tokens 和 temperature。
输入包括文本、图像、视频、音频和 PDF,输出仅限文本。此 Gemini 3.1 Pro 预览版模型不支持图像或音频生成。
输入 Token 限制为 1,048,576 (1M 上下文),最大输出 Token 为 65,536。这支持长文档和多轮对话上下文。
支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。对于 URL 上下文,目前不支持配合工具使用的函数调用,您最多可以传递 20 个 URL,每个 URL 最大 34MB。
EvoLink 的响应包含 usage.prompt_tokens、completion_tokens、total_tokens,以及 prompt_tokens_details 和 completion_tokens_details.reasoning_tokens。使用这些字段来监控成本、延迟和推理 Token 的消耗。