Gemini 2.5 Pro 预览版 API

Google 最新的智能体模型,具备思考模式、用于有状态推理的思维签名以及原生多模态理解能力。

Playground 暂不可用

该功能目前仅支持部分图片和视频生成模型。

Gemini 2.5 Pro 预览版 API - 启用思考模式

部署具备可配置推理深度的 gemini 2.5 Pro 。利用思维签名构建复杂的智能体工作流,并通过 EvoLink 处理超 100 万 Token。

Gemini 2.5 Pro  预览版 API - 启用思考模式

Gemini 2.5 Pro 预览版 API 的核心能力

深度思考模式

配置“思考等级”(低/高),在延迟与推理深度之间取得平衡。

探索逻辑能力
示例 2

智能体与思维签名

传递加密的思维签名 (Thought Signatures),在多步交互中保持推理上下文。

构建智能体
示例 3

1M 多模态上下文

单次处理海量数据集,包括视频、音频和代码仓库。

测试容量
示例 4

为什么通过 EvoLink 集成 Gemini 2.5 Pro

利用 EvoLink 的企业级缓存和路由功能接入 gemini 2.5 Pro 。我们自动优化分级定价结构。

思考等级控制

通过 API 参数,在快速指令遵循和深度“高”思考模式之间动态切换。

可靠的编排

使用思维签名确保您的智能体在执行函数期间记住其内部逻辑步骤。

极具性价比的扩展

以 $2/$12 的费率访问标准提示词(<200k),并利用 EvoLink 缓存最小化重复输入成本。

如何使用 Gemini 2.5 Pro 预览版 API

设置思考等级,定义工具,并通过 EvoLink 路由。

1

第 1 步 - 配置模型

选择 'gemini 2.5 Pro ',对于复杂任务将 `thinking_level` 设为 'High',追求速度则设为 'Low'。

2

第 2 步 - 集成签名

确保您的 API 循环捕获并返回 `thought_signature` Token,以维护上下文状态。

3

第 3 步 - 优化与运行

通过 EvoLink 发送请求。我们处理 200k 阈值路由并缓存静态上下文,节省约 90% 的输入成本。

技术规格

Gemini 2.5 Pro 预览版 API 的高级功能

1M Token 窗口

用于分析书籍、法律取证或数小时视频的海量上下文。

思考模式

新的 API 参数,用于控制模型内部思维链的深度。

分级定价

200k 以下输入按每百万 Token $2/$12 付费;超长上下文为 $4/$18。

思维签名

加密 Token,用于在智能体 API 调用之间保存推理状态。

原生多模态

一流的 PDF、音频、视频和图像输入支持,无需 OCR 中间件。

提示词缓存

通过 EvoLink 降低重复大上下文的延迟和成本。

Gemini 2.5 Pro vs 竞品

选择合适的推理模型

ModelDurationResolutionPriceStrength
Gemini 3 Pro 预览版N/A思考模式$2/$12 (<200k Tokens)可调节推理深度,思维签名,1M 上下文。
Gemini 2.5 ProN/A标准 CoT~$1.25/$10若不需要“深度思考”,它是稳健的基础选择。
GPT-5 / OpusN/A黑盒通常更高推理能力强,但往往缺乏思考等级的精细控制。

Gemini 2.5 Pro API 常见问题解答

定价基于上下文大小分级。对于 200k Token 以下的请求,每百万 Token 约为 $2.00 (输入) / $12.00 (输出)。超过 200k Token 的请求,费率增至约 $4.00 / $18.00。
您可以设置 `thinking_level` 参数。'High' 为复杂推理/数学分配更多算力(较慢但更准确),而 'Low' 针对标准延迟进行了优化。
它们是模型返回的加密 Token,代表其内部推理过程。您必须在后续 API 调用中将这些传回,以确保模型保持其“思路”。
不支持,`gemini 2.5 Pro ` 是一个文本/多模态输入模型。如需图像生成,请使用单独的 Gemini 2.5 Pro Image Preview 变体。
是的,基准测试显示在 SWE-Bench (编程) 和数学方面有显著提升。思考模式的加入使其能够处理 2.5 Pro 难以应对的复杂逻辑。