Seedance 2.0 API 现已上线立即开始

Gemini 3.1 Pro 预览版 API

通过 EvoLink 兼容 OpenAI 的 /v1/chat/completions 端点访问 gemini-3.1-pro-preview。专为编程��多模态推理和工具使用而设计,具备详细的 Token 统计功能。
模型类型:
价格: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

稳定性最高,保证 99.9% 可用性。推荐用于生产环境。

所有版本使用同一个 API 端点,仅 model 参数不同。

Gemini 3.1 Pro 预览版 API — 兼容 OpenAI SDK

通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3.1-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

示例 1

Gemini 3.1 Pro 预览版 API 的能力

多模态输入 + 接地

Gemini 3.1 Pro 预览版 API 接受文本、代码、图像、视频、音频和 PDF 输入,并返回纯文本输出。支持搜索接地(Search Grounding)及 URL 上下文,以提供可验证的回答。

示例 2

思考 + 智能体工具

支持思考(Thinking)、函数调用、结构化输出、代码执行和文件搜索,适用于智能体推理和自动化场景。

示例 3

1M 上下文 + 运营控制

输入 Token 限制为 1,048,576,输出 Token 高达 65,536。支持缓存和批处理 API,助力长上下文流水线。

示例 4

为什么在 EvoLink 上使用 Gemini 3.1 Pro

EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.1 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。

OpenAI SDK 格式

使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。

细粒度的用量指标

用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。

模型质量信号

更强的指令遵循能力、改进的响应一致性,在编码和推理基准测试中表现出色。

如何调用 Gemini 3.1 Pro 预览版

使用 OpenAI SDK 格式和 gemini-3.1-pro-preview 模型字符串。

1

第 1 步 - 设置模型

在请求正文中使用 model: "gemini-3.1-pro-preview"。

2

第 2 步 - 发送消息

提供包含角色/内容对的消息数组(最小长度为 1)。

3

第 3 步 - 检查输出与用量

读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。

技术规格

Gemini 3.1 Pro 预览版 API 的关键细节

兼容性

OpenAI SDK 格式

使用标准的 /v1/chat/completions 接口。

模型

模型字符串

为此端点将模型设置为 gemini-3.1-pro-preview。

分析

用量明细

响应包含提示/补全总量以及详细的 Token 类别。

推理

推理 Token

completion_tokens_details 包含用于深度分析的 reasoning_tokens。

多模态

聚焦多模态推理

更强的多模态推理和工具使用能力。

上下文

1M 上下文窗口

1M 上下文窗口支持长周期的智能体流程。

Gemini 3.1 Pro API 常见问题

Everything you need to know about the product and billing.

Gemini 3.1 Pro 是 Google Gemini 3 多模态模型系列的最新迭代。本页面专注于 Gemini 3.1 Pro 预览版(模型代码:gemini-3.1-pro-preview),它支持文本、图像、视频、音频和 PDF 输入并输出文本,同时支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。
在 EvoLink 的 Gemini 3.1 Pro 预览版 API 中,请将模型值设为 "gemini-3.1-pro-preview"。这是兼容 OpenAI 聊天补全端点的推荐模型字符串。
api.evolink.ai/v1/chat/completions 发送 POST 请求。使用来自 EvoLink 控制台的 API 密钥,并在请求头中包含 Authorization: Bearer <token> 和 Content-Type: application/json。
采用 OpenAI SDK 聊天补全格式,包含 model 和必填的 messages 数组(最小长度为 1)。每条消息使用角色/内容对,多模态输入可以作为内容部分传递,常用选项包括 stream、max_tokens 和 temperature。
输入包括文本、图像、视频、音频和 PDF,输出仅限文本。此 Gemini 3.1 Pro 预览版模型不支持图像或音频生成。
输入 Token 限制为 1,048,576 (1M 上下文),最大输出 Token 为 65,536。这支持长文档和多轮对话上下文。
支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。对于 URL 上下文,目前不支持配合工具使用的函数调用,您最多可以传递 20 个 URL,每个 URL 最大 34MB。
EvoLink 的响应包含 usage.prompt_tokens、completion_tokens、total_tokens,以及 prompt_tokens_details 和 completion_tokens_details.reasoning_tokens。使用这些字段来监控成本、延迟和推理 Token 的消耗。
Beta 版是实验性版本,价格更低但不保证 100% 可用。遇到此错误时:1. 等待重试:通常 5-10 分钟后恢复。2. 切换到官方版:将 model ID 从 gemini-3-1-pro-beta 改为 gemini-3-1-pro。官方版保证 99.9% uptime
Gemini 3.1 Pro API (gemini-3.1-pro-preview) | OpenAI 兼容的聊天补全 | EvoLink