Seedance 2.0 API — 即将上线Get early access

Seed 2.0 API (Doubao 2.0)

豆包 Seed 2.0 是字节跳动最新的大语言模型系列,提供 Pro、Lite、Mini、Code 四个变体。支持最高 256K 上下文窗口、按提示长度分段计价和缓存计费,以极具竞争力的价格提供强大的性能。在 EvoLink 上通过文档记录的模型枚举值即可访问。

灵活高效的豆包 Seed 2.0 API

字节跳动 Seed 2.0 系列提供最高 256K 上下文窗口,基于提示长度(32K/128K/256K)智能分段计价。通过缓存命中计费进一步节省成本,从 Pro、Lite、Mini、Code 四个变体中选择最适合您工作负载的模型。

豆包 Seed 2.0 API 功能展示
$

定价

方案上下文窗口最大输出输入输出缓存读取
Doubao Seed 2.0 Code256.0K128.0K
32.0K$0.444
$0.444官方价格
128.0K$0.667
$0.667官方价格
256.0K$1.333
$1.333官方价格
32.0K$2.222
$2.222官方价格
128.0K$3.333
$3.333官方价格
256.0K$6.667
$6.667官方价格
32.0K$0.089
$0.089官方价格
128.0K$0.089
$0.089官方价格
256.0K$0.089
$0.089官方价格
缓存存储

缓存的提示词按存储时间计费

$0.002/1M tokens/小时

定价说明: 价格单位:USD / 1M tokens

缓存命中: 适用于缓存的提示词 Tokens 价格。

利用豆包 Seed 2.0 API 可以构建什么?

通用对话场景

豆包 Seed 2.0 Pro 擅长构建智能聊天机器人和知识密集型助手。强大的指令遵循能力和长上下文窗口使其非常适合客户支持、企业问答和交互式内容生成。

豆包 Seed 2.0 使用案例展示 1

代码生成与开发

豆包 Seed 2.0 Code 专为软件工程任务打造。支持多种编程语言的代码生成、调试、代码审查和技术文档编写,性能表现出色。

豆包 Seed 2.0 使用案例展示 2

轻量推理与高效处理

豆包 Seed 2.0 Lite 和 Mini 变体为高吞吐量场景提供高效性能。非常适合批量处理、实时分类和对成本敏感的生产环境。

豆包 Seed 2.0 使用案例展示 3

为什么团队选择豆包 Seed 2.0 API

豆包 Seed 2.0 将高质量的大语言模型性能与灵活的分段计价和缓存计费相结合,是生产环境中最具性价比的模型系列之一。

高性价比

以远低于高端模型的成本提供有竞争力的性能,四个变体满足不同预算和质量需求。

灵活的分段计价

根据实际提示长度付费——短提示(≤32K)比长提示(128K/256K)成本更低,按需付费。

缓存计费更省钱

内置缓存命中计费,对重复的系统提示和前缀可节省高达 80% 的费用,非常适合生产环境。

如何集成豆包 Seed 2.0 API

使用带有文档记录的模型枚举值的 EvoLink API。豆包 Seed 2.0 完全兼容 OpenAI SDK——只需更改 base URL 和模型名称。

1

第 1 步 — 身份验证

创建 EvoLink API 密钥,并使用 Bearer 令牌身份验证发送请求。

2

第 2 步 — 选择变体

根据使用场景将 model 设置为 doubao-seed-2.0-pro、doubao-seed-2.0-lite、doubao-seed-2.0-mini 或 doubao-seed-2.0-code。

3

第 3 步 — 调优输出

调整 temperature、top_p、max_tokens、stream 等参数。定价层级会根据提示长度自动应用。

豆包 Seed 2.0 API 核心能力

来自字节跳动火山引擎的模型事实,以及 EvoLink 访问详情

上下文

256K 上下文窗口

在单次请求中处理长文档、大型代码库和复杂的多轮对话,最高支持 256K token 上下文。

定价

按长度分段计价

基于提示长度(≤32K、≤128K、≤256K)的智能分段定价。短提示费用更低——简单查询无需支付高价。

缓存

缓存命中计费

内置缓存命中计费,对重复的系统提示和前缀可降低高达 80% 的成本,非常适合生产环境。

变体

4 个模型变体

从 Pro(全功能)、Lite(均衡)、Mini(轻量)、Code(编程专用)中选择,精确匹配您的工作负载需求。

兼容性

兼容 OpenAI SDK

完全兼容 OpenAI SDK。只需更改 base URL 和模型名称即可切换到 Seed 2.0——无需重写代码。

语言

多语言支持

在中英文方面表现优异,在其他主要语言上也具备扎实的能力,支持全球化部署。

豆包 Seed 2.0 API 常见问题

Everything you need to know about the product and billing.

豆包 Seed 2.0 是字节跳动最新的大语言模型系列,提供四个变体:Pro(全功能,最高质量)、Lite(性能与成本的平衡)、Mini(轻量级,最快推理)和 Code(编程任务优化)。所有变体支持最高 256K 上下文窗口。
Pro 适合复杂任务,提供最高质量。Lite 提供良好的质量与速度平衡。Mini 针对高吞吐、低延迟场景优化。Code 专门为编程任务(如代码生成、调试、审查)调优。根据您的质量需求和预算选择合适的变体。
Seed 2.0 根据提示(输入)长度使用三个定价层级:≤32K tokens、≤128K tokens 和 ≤256K tokens。短提示按较低费率计费。例如,32K 以内的提示每 token 成本低于 32K-128K 之间的提示。确保您只为实际使用的上下文容量付费。
Seed 2.0 支持缓存命中计费。当您重复发送相同的系统提示或前缀时,缓存的 token 按远低于常规输入 token 的费率计费(最高可节省 80%)。这对于具有一致系统提示的生产环境特别有利。
在 API 请求中使用以下模型枚举值:doubao-seed-2.0-pro(Pro)、doubao-seed-2.0-lite(Lite)、doubao-seed-2.0-mini(Mini)或 doubao-seed-2.0-code(Code)。EvoLink 将通过最优提供商路由请求。
是的。EvoLink 提供兼容 OpenAI 的 API 端点。您可以通过将 base URL 更改为 EvoLink 端点并将模型设置为相应的 Seed 2.0 变体(如 doubao-seed-2.0-pro)来使用 OpenAI SDK。
Seed 2.0 模型每次请求最多支持 128,000 个 token(128K)的输出。上下文窗口最多支持 256K token 的输入。
Pro:复杂推理、长文本生成、企业助手。Lite:通用对话、内容创作、中等复杂度任务。Mini:实时响应、批量分类、高吞吐 API。Code:代码生成、调试、代码审查、技术文档。
豆包 Seed 2.0 Code API:字节跳动最新大语言模型系列 | EvoLink