HappyHorse 1.0 即将上线了解更多

Gemini 3.0 Pro 预览版 API

通过 EvoLink 兼容 OpenAI 的 /v1/chat/completions 端点访问 gemini-3-pro-preview。专为编程、多模态推理和工具使用而设计,具备详细的 Token 统计功能。
价格: 

$1.865 - 3.729(~ 126.8 - 253.6 credits) per 1M input tokens; $11.182 - 16.774(~ 760.4 - 1140.6 credits) per 1M output tokens

$0.187 - 0.374(~ 12.7 - 25.4 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

稳定性最高,保证 99.9% 可用性。推荐用于生产环境。

所有版本使用同一个 API 端点,仅 model 参数不同。

Gemini 3.0 Pro 预览版 API — 兼容 OpenAI SDK

通过 EvoLink 使用 OpenAI SDK 格式调用 gemini-3-pro-preview。在响应中获取用量及推理 Token 信息,并利用测试中报告的 1M 上下文窗口。

示例 1

Gemini 3.0 Pro 预览版 API 的能力

多模态输入 + 接地

Gemini 3 Pro 预览版 API 接受文本、代码、图像、视频、音频和 PDF 输入,并返回纯文本输出。支持搜索接地(Search Grounding)及 URL 上下文,以提供可验证的回答。

示例 2

思考 + 智能体工具

支持思考(Thinking)、函数调用、结构化输出、代码执行和文件搜索,适用于智能体推理和自动化场景。

示例 3

1M 上下文 + 运营控制

输入 Token 限制为 1,048,576,输出 Token 高达 65,536。支持缓存和批处理 API,助力长上下文流水线。

示例 4

为什么在 EvoLink 上使用 Gemini 3.0 Pro

EvoLink 通过熟悉的 OpenAI SDK 风格端点开放 Gemini 3.0 Pro 预览版,具备显式鉴权和详细的用量统计,适用于生产级跟踪。

OpenAI SDK 格式

使用模型 + 消息调用 /v1/chat/completions。消息数组为必填项(最小长度为 1)。

细粒度的用量指标

用量统计包含 prompt_tokens、completion_tokens、total_tokens,以及 completion_tokens_details.reasoning_tokens。

模型质量信号

Vercel 报告称其具备更强的指令遵循能力、改进的响应一致性,并在其 Next.js 评估中表现出色。

如何调用 Gemini 3.0 Pro 预览版

使用 OpenAI SDK 格式和 gemini-3-pro-preview 模型字符串。

1

第 1 步 - 设置模型

在请求正文中使用 model: "gemini-3-pro-preview"。

2

第 2 步 - 发送消息

提供包含角色/内容对的消息数组(最小长度为 1)。

3

第 3 步 - 检查输出与用量

读取 choices[0].message.content 并跟踪 usage 中的 prompt_tokens、completion_tokens 和 reasoning_tokens。

技术规格

Gemini 3.0 Pro 预览版 API 的关键细节

兼容性

OpenAI SDK 格式

使用标准的 /v1/chat/completions 接口。

模型

模型字符串

为此端点将模型设置为 gemini-3-pro-preview。

分析

用量明细

响应包含提示/补全总量以及详细的 Token 类别。

推理

推理 Token

completion_tokens_details 包含用于深度分析的 reasoning_tokens。

多模态

聚焦多模态推理

Vercel 在测试中指出其具备更强的多模态推理和工具使用能力。

上下文

1M 上下文窗口

Vercel 报告 1M 上下文窗口支持长周期的智能体流程。

Gemini 3.0 Pro API 常见问题

Everything you need to know about the product and billing.

Gemini 3 是 Google 最新的多模态模型系列。本页面专注于 Gemini 3 Pro 预览版(模型代码:gemini-3-pro-preview),它支持文本、图像、视频、音频和 PDF 输入并输出文本,同时支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。Google 为此预览版模型列出的知识截止日期为 2025 年 1 月。
在 EvoLink 的 Gemini 3 Pro 预览版 API 中,请将模型值设为 "gemini-3-pro-preview"。这是兼容 OpenAI 聊天补全端点的推荐模型字符串。
api.evolink.ai/v1/chat/completions 发送 POST 请求。使用来自 EvoLink 控制台的 API 密钥,并在请求头中包含 Authorization: Bearer <token> 和 Content-Type: application/json。
采用 OpenAI SDK 聊天补全格式,包含 model 和必填的 messages 数组(最小长度为 1)。每条消息使用角色/内容对,多模态输入可以作为内容部分传递,常用选项包括 stream、max_tokens 和 temperature。
输入包括文本、图像、视频、音频和 PDF,输出仅限文本。此 Gemini 3 Pro 预览版模型不支持图像或音频生成。
输入 Token 限制为 1,048,576 (1M 上下文),最大输出 Token 为 65,536。这支持长文档和多轮对话上下文。
支持思考模式、函数调用、结构化输出、代码执行、文件搜索、搜索接地、URL 上下文、缓存和批处理 API。对于 URL 上下文,目前不支持配合工具使用的函数调用,您最多可以传递 20 个 URL,每个 URL 最大 34MB。
EvoLink 的响应包含 usage.prompt_tokens、completion_tokens、total_tokens,以及 prompt_tokens_details 和 completion_tokens_details.reasoning_tokens。使用这些字段来监控成本、延迟和推理 Token 的消耗。
Beta 版是实验性版本,价格更低但不保证 100% 可用。遇到此错误时:1. 等待重试:通常 5-10 分钟后恢复。2. 切换到官方版:将 model ID 从 gemini-3-pro-preview-beta 改为 gemini-3-pro-preview。官方版保证 99.9% uptime