Gemini 3 Pro Preview API

Google 最新的智能体模型,具备“思考模式”、用于有状态推理的“思维签名”以及原生多模态理解能力。

Playground 暂不可用

该功能目前仅支持部分图片和视频生成模型。

Gemini 3 Pro Preview API —— 思考模式已启用

部署具备可配置推理深度的 gemini-3-pro-preview。利用“思维签名”构建复杂的智能体工作流,并通过 EvoLink 处理 1M+ Token。

Gemini 3 Pro Preview API —— 思考模式已启用

Gemini 3 Pro Preview API 的能力

深度思考模式

配置“思考等级”(低/高)以平衡延迟与推理深度。

探索逻辑能力
示例 2

智能体与思维签名

传递加密的“思维签名”,以在多步交互中维持推理上下文。

构建智能体
示例 3

1M 多模态上下文

单次传递即可处理海量数据集,包括视频、音频和代码仓库。

测试容量
示例 4

为何通过 EvoLink 集成 Gemini 3 Pro

利用具备企业级缓存与路由的全新 gemini-3-pro-preview。我们会自动优化分层定价结构。

思考等级控制

通过 API 参数,动态在快速指令遵循与深度的“高”思考模式之间切换。

可靠编排

使用思维签名,确保您的智能体在执行函数期间记住其内部逻辑步骤。

高性价比扩展

标准提示词(<200k)享受 $2/$12 的费率,并利用 EvoLink 缓存最小化重复输入成本。

如何使用 Gemini 3 Pro Preview API

设置您的思考等级,定义工具,并通过 EvoLink 进行路由。

1

第 1 步 — 配置模型

选择 'gemini-3-pro-preview' 并根据需求将 `thinking_level` 设置为 'High'(复杂任务)或 'Low'(追求速度)。

2

第 2 步 — 集成签名

确保您的 API 循环能够捕获并返回 `thought_signature` Token,以维持上下文状态。

3

第 3 步 — 优化与运行

通过 EvoLink 发送请求。我们会处理 200k 分层路由,并缓存静态上下文以节省约 90% 的输入成本。

技术规格

Gemini 3 Pro Preview API 的高级特性

100万 Token 窗口

用于分析书籍、法律取证或数小时视频的海量上下文。

思考模式

全新的 API 参数,用于控制模型内部思维链的深度。

分层定价

200k 以下输入费率为 $2/$12(每百万);扩展长上下文费率为 $4/$18。

思维签名

加密 Token,用于在跨 API 调用时保存智能体的推理状态。

原生多模态

对 PDF、音频、视频和图像输入的一流支持,无需 OCR 中间件。

提示词缓存

通过 EvoLink 降低重复性大上下文的延迟和成本。

Gemini 3 Pro vs 竞品

选择合适的推理模型

ModelDurationResolutionPriceStrength
Gemini 3 Pro PreviewN/A思考模式$2/$12 (<200k Token)可调节的推理深度、思维签名、1M 上下文。
Gemini 2.5 ProN/A标准 CoT~$1.25/$10若无需“深度思考”,它是稳健的基准选择。
GPT-5 / OpusN/A黑盒通常更高强大的推理能力,但往往缺乏思考等级的细粒度控制。

Gemini 3 Pro API 常见问题

定价基于上下文大小分层。对于低于 200k Token 的请求,每百万 Token 约为 $2.00(输入)/ $12.00(输出)。超过 200k Token 的请求,费率增至约 $4.00 / $18.00。
您可以设置 `thinking_level` 参数。'High' 会分配更多算力用于复杂推理/数学(速度较慢但更准确),而 'Low' 专为标准延迟优化。
它们是模型返回的代表其内部推理过程的加密 Token。您必须在后续 API 调用中将其传回,以确保模型保持“思维连贯性”。
不支持,`gemini-3-pro-preview` 是文本/多模态输入模型。如需图像生成,请使用单独的 Gemini 3 Pro Image Preview 变体。
是的,基准测试显示其在 SWE-Bench(编程)和数学方面有显著提升。思考模式的加入使其能够处理 2.5 Pro 难以应对的复杂逻辑。