Seedance 2.0 API — 即将上线Get early access

Gemini 2.5 Flash API

通过统一的 EvoLink 密钥,在几分钟内启动 Gemini 2.5 Flash 模型。选择 Google 原生 API 格式或 OpenAI SDK 格式,在不更改应用技术栈的情况下构建低延迟助手、分析工具和智能体工作流。
Run With API
Using coding CLIs? Run Gemini 2.5 Flash via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

定价

方案上下文窗口最大输出输入输出缓存读取
Gemini 2.5 Flash1.05M65.5K
$0.240-20%
$0.300官方价格
$2.00-20%
$2.50官方价格
$0.024-21%
$0.030官方价格
Gemini 2.5 Flash (Beta)1.05M65.5K
$0.078-74%
$0.300官方价格
$0.650-74%
$2.50官方价格
$0.008-74%
$0.030官方价格

定价说明: 价格单位:USD / 1M tokens

缓存命中: 适用于缓存的提示词 Tokens 价格。

在 EvoLink 上运行 Gemini 2.5 Flash 有两种方式,您可以选择适合您需求的层级。

  • · Gemini 2.5 Flash: 默认层级,适合生产环境的可靠性和可预测的可用性。
  • · Gemini 2.5 Flash (Beta): 低成本层级,尽力而为的可用性;推荐用于可接受重试的工作负载。

面向快速、可扩展多模态应用的 Gemini 2.5 Flash API

在单次请求中处理海量上下文和混合媒体。Gemini 2.5 Flash 接受文本、图像、视频和音频输入,返回文本输出,并支持长上下文,助力团队大规模交付实时支持、内容理解和内部自动化。

多模态 AI 模型功能展示

Gemini 2.5 Flash API 的能力

高吞吐量响应

Gemini 2.5 Flash 专为大规模、低延迟负载而生。将其用于客户聊天、产品发现或用户期望快速回答的实时仪表盘。EvoLink 在您扩展并发量时保持集成简单,使同一模型能同时驱动原型和生产流量。

多模态 AI 模型生产力展示

多模态理解

借助 Gemini 2.5 Flash,单次请求可以包含文本、图像、视频剪辑或音频。这使得总结会议、审查产品照片或从培训视频中提取关键时刻变得简单。您将获得易于存储、搜索并路由到下游工具的文本输出。

多模态 AI 模型洞察展示

智能体工作流就绪

Gemini 2.5 Flash 支持函数调用、结构化输出和上下文缓存,使智能体能够调用工具、可靠地返回 JSON 并复用大型指令。这对于工单分类、政策检查、目录清理以及其他注重一致性和速度的可重复任务非常理想。

多模态 AI 模型运营展示

为什么开发者选择 Gemini 2.5 Flash

专为大规模、低延迟、高业务量负载打造,具备多模态输入和长上下文能力。

面向用户体验的极速响应

针对大规模处理和低延迟、高业务量任务进行了优化,是实时智能体和助手的自然选择。

无复杂性的规模化扩展

使用 EvoLink 的 OpenAI SDK 格式,通过单一的 /v1/chat/completions 端点,配合可选的流式传输提升感知速度。

设计之初即考虑成本

支持缓存、函数调用和结构化输出,减少重复工作并保持自动化工作流的可预测性。

如何集成 Gemini 2.5 Flash

EvoLink 支持 Gemini 2.5 Flash 的 Google 原生 API 格式,提供流式传输和异步选项。

1

第 1 步 — 获取密钥

创建 EvoLink API 密钥,并在每次 Gemini 2.5 Flash 请求中将其作为 Bearer 令牌发送。

2

第 2 步 — 选择方法

使用 generateContent 获取完整响应,或使用 streamGenerateContent 获取实时分块,并发送包含文本或多模态输入的 contents 数组。

3

第 3 步 — 通过异步实现规模化

将 X-Async-Mode 设置为 true 以接收任务 ID,然后查询任务端点并读取 usageMetadata 中的 Token 计数以进行跟踪。

Gemini 2.5 Flash 模型亮点

快速、长上下文,专为多模态理解而建

上下文

1M Token 窗口

Gemini 2.5 Flash 支持高达 1,048,576 个输入 Token 和高达 65,536 个输出 Token,支持在单次请求中处理长文档、大型代码库或数小时的转录文本。

多模态

多模态输入

在单次 Gemini 2.5 Flash 调用中发送文本、图像、视频或音频并接收文本输出,非常适合跨团队的总结、问答和内容审核。

控制

函数调用 + 结构化输出

模型支持函数调用和结构化输出,使工作流能够触发工具并返回一致的 JSON,用于下游自动化和分析。非常适合需要可预测 Schema 的集成。

效率

上下文缓存

支持缓存功能,当您在多次 Gemini 2.5 Flash 请求中复用长指令或共享文档时,可减少重复的提示词 Token,从而降低延迟和成本。

交付

流式传输与异步模式

选择 streamGenerateContent 获取实时 Token,或启用 X-Async-Mode 进行后台处理并返回任务 ID。这让团队能够在用户体验速度与重型批处理任务之间取得平衡。

可观测性

用量元数据可见性

响应包含 usageMetadata,列出提示词和候选 Token 计数,使工程和财务团队能够轻松跟踪和优化 Gemini 2.5 Flash 的成本。

Gemini 2.5 Flash API 常见问题

Everything you need to know about the product and billing.

Gemini 2.5 Flash API 被定位为大规模处理和低延迟、高业务量任务的强力性价比模型。它在客户支持聊天、产品搜索助手、内容总结以及需要快速响应且不失质量的内部副驾驶中表现出色。如果您的工作负载涉及每分钟多次请求,并且您希望在长上下文和多模态输入下获得一致的结果,Gemini 2.5 Flash 是一个实用的默认选择。团队通常从这里开始实现生产规模,仅在需要高级推理时才转向 Pro。
Gemini 2.5 Flash 接受文本、图像、视频和音频作为输入,并返回文本输出。这使得将转录文本与屏幕截图、产品照片或短视频结合,并请求单一的书面总结或决策变得简单。团队经常将其用于会议笔记、支持工单增强、内容审查和内部知识搜索,因为输出是纯文本,可以轻松存储、索引并路由到其他系统。它也能很好地配合搜索或数据库查询。
Gemini 2.5 Flash 支持高达 1,048,576 个输入 Token 和高达 65,536 个输出 Token。在实践中,这意味着您可以一次性输入长文档、大型代码库或数小时的转录文本,而无需将其切碎。这对于合规性审查、研究总结和多文档分析非常有价值,在这些场景中,上下文的连续性至关重要,且您需要一个单一、连贯的响应。它还减少了应用中复杂分块逻辑的需求,有助于从多个来源获取单一答案。
是的。在 EvoLink 的 Google 原生 API 格式中,您可以选择 streamGenerateContent 来接收实时分块内容。这对于聊天 UI、实时仪表盘或任何用户需要立即看到进度的体验都非常有用。当您切换到流式传输时,仍使用相同的 Gemini 2.5 Flash 请求正文,因此您可以保持提示词和多模态输入的一致性,同时提升感知速度。流式传输配合打字指示器或渐进式总结效果极佳,在较慢的网络环境下也能提升感知速度。
是的。将 X-Async-Mode 标头设置为 true,请求将立即返回任务 ID,而无需等待完整响应。然后,您可以查询任务状态端点,以非流式格式检索完成的结果。此模式非常适合长时间运行的批处理作业、夜间分析或大型文档处理,在这些场景中您不希望面向用户的请求等待。它也适用于排队流水线和后台工作程序,您可以按计划轮询并在稍后存储结果。
所有 EvoLink API 都需要 Bearer 令牌身份验证。在 EvoLink 控制台中生成 API 密钥,然后将其包含在每个请求的 Authorization 标头中。对于生产环境,请将密钥存储在安全的机密管理器中,按环境划分作用域,并定期轮换。这能保持您的 Gemini 2.5 Flash 用量受控,同时为您的团队提供一致、简单的集成路径。避免在客户端应用中嵌入密钥,应改用服务器端代理。为开发、测试和生产环境分别设置密钥以降低风险。
是的。该模型支持函数调用和结构化输出,这意味着您可以请求 JSON 对象或触发特定工具作为工作流的一部分。这有助于路由工单、更新记录或构建需要可预测 Schema 的智能体流。通过保持响应格式一致,Gemini 2.5 Flash 减少了解析错误并使自动化更可靠。清晰定义您的 Schema 并验证响应,以保持集成的稳健性。这对于 ETL、CRM 更新和报表生成特别有用。
Gemini 2.5 Flash 支持缓存功能。您可以在多次请求中复用大型系统指令、政策文本或产品目录,而无需每次都支付完整的输入成本。这减少了重复的提示词 Token,并能改善延迟,因为模型不需要在每次调用时重新处理相同的上下文。它非常适合循环工作流和常驻助手。缓存品牌基调、常见问题解答或安全规则以保持响应一致,对于重复的入职引导和政策提醒特别有帮助。