Seed 2.0 API (Doubao 2.0)
豆包 Seed 2.0 是字节跳动最新的大语言模型系列,提供 Pro、Lite、Mini、Code 四个变体。支持最高 256K 上下文窗口、按提示长度分段计价和缓存计费,以极具竞争力的价格提供强大的性能。在 EvoLink 上通过文档记录的模型枚举值即可访问。
灵活高效的豆包 Seed 2.0 API
字节跳动 Seed 2.0 系列提供最高 256K 上下文窗口,基于提示长度(32K/128K/256K)智能分段计价。通过缓存命中计费进一步节省成本,从 Pro、Lite、Mini、Code 四个变体中选择最适合您工作负载的模型。

定价
| 方案 | 上下文窗口 | 最大输出 | 输入 | 输出 | 缓存读取 |
|---|---|---|---|---|---|
| Doubao Seed 2.0 Mini | 256.0K | 128.0K | ≤32.0K$0.028 $0.028官方价格 ≤128.0K$0.056 $0.056官方价格 ≤256.0K$0.111 $0.111官方价格 | ≤32.0K$0.278 $0.278官方价格 ≤128.0K$0.556 $0.556官方价格 ≤256.0K$1.111 $1.111官方价格 | ≤32.0K$0.006 $0.006官方价格 ≤128.0K$0.006 $0.006官方价格 ≤256.0K$0.006 $0.006官方价格 |
缓存的提示词按存储时间计费
定价说明: 价格单位:USD / 1M tokens
缓存命中: 适用于缓存的提示词 Tokens 价格。
利用豆包 Seed 2.0 API 可以构建什么?
为什么团队选择豆包 Seed 2.0 API
豆包 Seed 2.0 将高质量的大语言模型性能与灵活的分段计价和缓存计费相结合,是生产环境中最具性价比的模型系列之一。
高性价比
以远低于高端模型的成本提供有竞争力的性能,四个变体满足不同预算和质量需求。
灵活的分段计价
根据实际提示长度付费——短提示(≤32K)比长提示(128K/256K)成本更低,按需付费。
缓存计费更省钱
内置缓存命中计费,对重复的系统提示和前缀可节省高达 80% 的费用,非常适合生产环境。
如何集成豆包 Seed 2.0 API
使用带有文档记录的模型枚举值的 EvoLink API。豆包 Seed 2.0 完全兼容 OpenAI SDK——只需更改 base URL 和模型名称。
第 1 步 — 身份验证
创建 EvoLink API 密钥,并使用 Bearer 令牌身份验证发送请求。
第 2 步 — 选择变体
根据使用场景将 model 设置为 doubao-seed-2.0-pro、doubao-seed-2.0-lite、doubao-seed-2.0-mini 或 doubao-seed-2.0-code。
第 3 步 — 调优输出
调整 temperature、top_p、max_tokens、stream 等参数。定价层级会根据提示长度自动应用。
豆包 Seed 2.0 API 核心能力
来自字节跳动火山引擎的模型事实,以及 EvoLink 访问详情
256K 上下文窗口
在单次请求中处理长文档、大型代码库和复杂的多轮对话,最高支持 256K token 上下文。
按长度分段计价
基于提示长度(≤32K、≤128K、≤256K)的智能分段定价。短提示费用更低——简单查询无需支付高价。
缓存命中计费
内置缓存命中计费,对重复的系统提示和前缀可降低高达 80% 的成本,非常适合生产环境。
4 个模型变体
从 Pro(全功能)、Lite(均衡)、Mini(轻量)、Code(编程专用)中选择,精确匹配您的工作负载需求。
兼容 OpenAI SDK
完全兼容 OpenAI SDK。只需更改 base URL 和模型名称即可切换到 Seed 2.0——无需重写代码。
多语言支持
在中英文方面表现优异,在其他主要语言上也具备扎实的能力,支持全球化部署。
豆包 Seed 2.0 API 常见问题
Everything you need to know about the product and billing.


