Seedance 2.0 API — 即将上线Get early access

Gemini 2.5 Pro API

Gemini 2.5 Pro 为团队提供了一个用于深度分析、代码审查和复杂规划的长上下文推理模型。通过 EvoLink 上的 Gemini 2.5 Pro,您可以使用单一 API 密钥路由请求,按项目跟踪用量,并为生产级应用保持合规友好的控制。
Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

定价

方案上下文窗口最大输出输入输出
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25官方价格
>200.0K$2.00-20%
$2.50官方价格
200.0K$8.00-20%
$10.00官方价格
>200.0K$12.000-20%
$15.00官方价格
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25官方价格
>200.0K$0.650-74%
$2.50官方价格
200.0K$2.60-74%
$10.00官方价格
>200.0K$3.90-74%
$15.00官方价格

定价说明: 价格单位:USD / 1M tokens

在 EvoLink 上运行 Gemini 2.5 Pro 有两种方式,您可以选择适合您需求的层级。

  • · Gemini 2.5 Pro: 默认层级,适合生产环境的可靠性和可预测的可用性。
  • · Gemini 2.5 Pro (Beta): 低成本层级,尽力而为的可用性;推荐用于可接受重试的工作负载。

面向长上下文推理与工具使用的 Gemini 2.5 Pro

Gemini 2.5 Pro 支持高达约一百万个输入 Token 和文本输出,使长文件、PDF 和多轮工作流能够保持在同一个对话中。利用多模态输入和结构化输出,将大上下文转化为可靠的操作。

AI 模型功能展示

Gemini 2.5 Pro 能帮您构建什么?

长上下文理解

Gemini 2.5 Pro 可以在单次请求中读取大型文档、代码库和 PDF,并在长对话中保持意图一致。加载政策、规范和先前的聊天历史,然后请求摘要、风险检查或决策,无需繁重的分块处理或不断的重复提示。

上下文能力展示

多模态分析

Gemini 2.5 Pro 接受文本、图像、音频、视频和 PDF 输入,同时返回清晰的文本回答。这意味着您可以将会议音频与幻灯片结合,在 Bug 报告中添加截图,或附加合同 PDF 并请求风险摘要,所有这些都在一个流程中完成。

多模态能力展示

结构化工作流

Gemini 2.5 Pro 支持函数调用、结构化输出、URL 上下文和文件搜索,让您的应用能够从洞察转向行动。使用 JSON 格式的响应进行数据提取、审批或路由,并在准确性至关重要时通过搜索或地图对结果进行接地(Grounding)。

工作流能力展示

为什么团队选择此模型

团队选择 Gemini 2.5 Pro 是为了其长上下文推理、多模态输入以及结构化输出和接地等生产就绪的控制功能,然后通过 EvoLink 经由 OpenAI 兼容或原生 Gemini 端点进行访问。

长上下文信心

高达 1,048,576 个输入 Token 和 65,536 个输出 Token,有助于在单次请求中保留大型文档和长历史记录。

可靠的结构

函数调用和结构化输出有助于为自动化和下游系统生成一致的 JSON。

运营清晰度

缓存和批处理 API 支持可降低重复工作负载的成本,而搜索或地图接地则能提升信任度。

如何使用 Gemini 2.5 Pro

通过 EvoLink 使用 Gemini 2.5 Pro,支持 OpenAI SDK 兼容模式或原生 Gemini 端点。

1

第 1 步 - 准备上下文

收集您需要的文件、链接或转录文本,然后在进行深度分析前请求大纲或摘要。

2

第 2 步 - 选择 API 格式

调用 /v1/chat/completions 以获得 OpenAI SDK 兼容性,或使用 /v1beta/models/gemini-2.5-pro:{method} 以使用原生 Gemini 功能。

3

第 3 步 - 生成、评审、改进

评估输出,添加约束,并缓存重复的上下文块,以降低大型、周期性任务的成本。

核心能力

专为长周期、可靠的推理而打造

上下文

百万级上下文窗口

Gemini 2.5 Pro 支持高达 1,048,576 个输入 Token 和高达 65,536 个输出 Token,使长文档和多步工作保持在单次请求中。

多模态

多模态输入

该模型接受文本、图像、音频、视频和 PDF 输入,然后返回易于存储、搜索或传递给其他系统的文本输出。

工具

结构化输出与工具

获得函数调用和结构化输出,将响应格式化为 JSON,以便您的工作流可以解析结果、触发操作并避免脆弱的后期处理。

接地

接地与 URL 上下文

使用搜索接地、地图接地、URL 上下文和文件搜索来提高准确性,并在事实精度至关重要时减少幻觉。

效率

缓存与批处理支持

支持对重复的长上下文提示词进行缓存,批处理 API 支持让您在延迟要求不高时高效处理大型队列。

信任

已知限制下的推理

该模型包含 2025 年 1 月的知识截止日期,因此在需要最新信息时,请将其与接地或新鲜来源配对使用。

常见问题

Everything you need to know about the product and billing.

Gemini 2.5 Pro 在需要跨长上下文进行深度推理时表现最强,例如多文档审查、复杂代码分析或涉及多个约束的规划。由于模型接受大型提示词,您可以将政策、规范和历史背景放在一起,并请求单一、连贯的响应。它也非常适合需要将文本与图像、音频、视频或 PDF 结合的多模态工作流。对于生产级应用,结构化输出有助于保持结果一致。
Gemini 2.5 Pro 支持高达 1,048,576 个输入 Token 和高达 65,536 个输出 Token。在实践中,这意味着它可以在单次请求中处理非常大的文档、长篇聊天历史或组合媒体输入。如果您接近最大值,请预留更长的响应时间和更高的成本。对于日常工作,许多团队保持在限制以下,并利用额外的空间来减少分块并保持连贯性。
Gemini 2.5 Pro 接受文本、图像、音频、视频和 PDF 输入,并返回文本输出。这使得该模型在总结 PDF、从会议录音中提取洞察或用平实语言解释视频片段等工作流中非常实用。由于输出仅为文本,因此易于存储、搜索或发送到下游的分析和业务系统。如果您需要多模态输出,可以将其与 EvoLink 中的专业媒体模型配对。
是的。Gemini 2.5 Pro 支持函数调用和结构化输出,这让您可以请求 JSON 格式的响应,以实现一致的数据提取和路由。当您希望 Gemini 2.5 Pro 填充表单、分类工单或为仪表盘生成结构化摘要时,这非常有用。您可以定义所需的字段,更轻松地验证输出,并减少手动清理。对于高风险工作流,请将结构化输出与接地相结合以提高可靠性。
Gemini 2.5 Pro 支持 URL 上下文和文件搜索,以及搜索或地图接地等选项。这意味着 Gemini 2.5 Pro 可以引用特定来源、链接到页面,并将答案锚定在可检索的材料中。当您需要值得信赖的结果时,请提供您关心的来源,要求模型引用它们,并保持提示词聚焦。接地对于准确性至关重要的政策、合规和客户支持场景特别有帮助。
EvoLink 提供两条路径:位于 /v1/chat/completions 的 OpenAI SDK 兼容端点,以及位于 /v1beta/models/gemini-2.5-pro:{method} 的原生 Gemini 端点。Gemini 2.5 Pro 适用于任一选项,因此您可以保留现有的 OpenAI 风格工具链,或使用原生格式以获得 Gemini 特有的功能。两种流程均使用 Bearer 令牌鉴权并支持流式响应;原生端点还支持带有 X-Async-Mode 标头的异步模式。
Google 为其 API 发布了官方的 Gemini 2.5 Pro 定价,标准付费层级随提示词大小而异。根据 Google 的列表,高达 200k Token 的提示词定价为每百万输入 Token 1.25 美元,每百万输出 Token 10 美元,更大的提示词成本更高;缓存和存储有独立费率。EvoLink 的用量取决于您的路由和计划,请查看您的控制台以获取最准确的定价和成本控制信息。
Gemini 2.5 Pro 列出的知识截止日期为 2025 年 1 月,因此它可能不知道非常近期的事件或变化。当时效性很重要时,请将 Gemini 2.5 Pro 与 URL 上下文、文件上传或接地配合使用,以便模型可以依赖您提供的最新来源。您还可以提示它将引用的事实与假设分开,这有助于评审员验证准确性。这种方法在保持响应有用性的同时,仍能受益于模型的长上下文推理能力。