Seedance 2.0 API 现已上线立即开始

豆包 Seed 2.0 API

豆包 Seed 2.0 是字节跳动面向生产文本工作负载的最新模型系列。EvoLink 为您提供统一的 OpenAI 兼容端点,支持 Pro、Lite、Mini 和 Code 四个版本,让您无需更换提供商即可根据质量、成本、延迟或编程任务选择合适的模型。
价格: 

$0.083 - 0.250(~ 6 - 18 credits) per 1M input tokens; $0.500 - 1.500(~ 36 - 108 credits) per 1M output tokens

$0.017(~ 1.2 credits) per 1M cache read tokens

Cache storage charged separately per hour.

稳定性最高,保证 99.9% 可用性。推荐用于生产环境。

所有版本使用同一个 API 端点,仅 model 参数不同。

豆包 Seed 2.0 Lite API 价格与接入

通过一个 EvoLink API 密钥使用豆包 Seed 2.0 Lite。本页面聚焦 Lite 版本,适用于成本敏感的生产流量、均衡质量和透明定价。

豆包 Seed 2.0 API 功能展示

使用豆包 Seed 2.0 Lite 可以构建什么?

Seed 2.0 Pro 用于旗舰级助手

Seed 2.0 Pro 是您想要获得主流 Seed 2.0 API 体验的最佳起点:为企业助手、长上下文问答、智能体工作流和高端通用文本生成提供更强的质量。

豆包 Seed 2.0 功能展示 1

Seed 2.0 Code 用于编程智能体

Seed 2.0 Code 是该系列中专注于编程的成员。当您的工作负载更接近编程模型 API 而非通用聊天机器人时,可使用它进行代码生成、调试、审查、重构和文档编写。

豆包 Seed 2.0 功能展示 2

Seed 2.0 Lite 和 Mini 用于高效生产

Seed 2.0 Lite 是日常生产流量的成本高效选择,而 Seed 2.0 Mini 是用于批处理作业、分类、路由和大规模低延迟推理的更快、更轻量的选择。

豆包 Seed 2.0 功能展示 3

为什么团队选择豆包 Seed 2.0 Lite

Seed 2.0 在 EvoLink 上表现出色,因为该模型系列清晰地映射到实际生产权衡:Pro 提供旗舰级质量,Lite 提供低成本覆盖,Mini 提供更快的吞吐量,Code 提供编程专用输出。

统一网关进行模型选择

通过一个 EvoLink 端点和一个 API 密钥路由所有四个 Seed 2.0 版本,无需管理单独的提供商集成。

与实际使用匹配的定价

Seed 2.0 计费按提示长度缩放,因此短请求不会为 256K 容量多付费。下方的定价表是买家比较实际 API 成本的地方。

生产友好的成本控制

缓存命中计费降低了重复前缀和系统提示的成本,这对于智能体、助手和标准化企业流程特别有用。

如何集成豆包 Seed 2.0 Lite API

使用 EvoLink API 并选择 Lite 模型枚举值。迁移通常只需更换基础 URL 加上 doubao-seed-2.0-lite。

1

步骤 1 — 身份验证

创建 EvoLink API 密钥,并从您的应用、智能体或后端服务使用 Bearer 令牌身份验证发送请求。

2

步骤 2 — 使用 Lite 模型 ID

将 model 设置为 doubao-seed-2.0-lite 以在 EvoLink 上使用 Lite 版本。

3

步骤 3 — 调整输出

调整 temperature、top_p、max_tokens、stream 和其他参数。提示长度层级和缓存计费会在 API 定价模型中自动应用。

豆包 Seed 2.0 Lite API 核心能力

来自字节跳动火山引擎的模型事实,以及 EvoLink 定价和访问信号

上下文

256K 上下文窗口

使用最多 256K 上下文处理长文档、大型代码库和多步智能体提示,无需切换到不同的模型系列。

定价

按长度分层定价

定价根据提示长度变化(≤32K、≤128K、≤256K),这使得 Seed 2.0 更容易为同时包含短请求和长请求的混合工作负载购买。

缓存

缓存命中计费

通过缓存命中计费降低重复前缀和系统提示的成本,特别是在提示模板经常重复的生产环境中。

版本

4 个模型版本

Pro 用于旗舰级通用质量,Lite 用于成本高效的流量,Mini 用于高吞吐量低延迟请求,Code 用于编程工作流。

兼容性

兼容 OpenAI SDK

保留您现有的 OpenAI SDK 流程,通过更新基础 URL 和模型枚举值以最小的应用程序更改切换提供商。

语言

多语言支持

强大的中英文性能使 Seed 2.0 适用于双语产品、区域支持流程和全球部署的助手。

豆包 Seed 2.0 Lite API 常见问题

Everything you need to know about the product and billing.

豆包 Seed 2.0 Lite 是 Seed 2.0 系列中的成本高效模型。在 EvoLink 上,它通过与其他 Seed 2.0 版本相同的 OpenAI 兼容 API 网关提供服务。
当 API 成本比旗舰质量更重要时选择 Lite。适合支持自动化、内容运营、日常聊天和持续生产流量。
Seed 2.0 对输入和输出使用基于长度的定价层级。32K 提示长度内的请求定价低于 128K 或 256K 层级,因此成本随您实际消耗的上下文而扩展。在 EvoLink 上,下方的定价部分是按版本比较成本的权威位置。
Seed 2.0 支持缓存命中计费。当重复使用相同的系统提示或提示前缀时,缓存的令牌按低于标准输入费率的价格计费。这在具有重复提示脚手架、智能体前缀或稳定企业指令的生产工作负载中产生明显差异。
在您的 API 请求中使用这些模型枚举值:doubao-seed-2.0-pro、doubao-seed-2.0-lite、doubao-seed-2.0-mini 和 doubao-seed-2.0-code。EvoLink 在一个 API 网关后保持访问统一,因此版本选择通过 model 字段进行,而不是单独的供应商集成。
是的。EvoLink 为 Seed 2.0 公开了兼容 OpenAI 的 API 端点。在大多数集成中,迁移意味着更改基础 URL、使用您的 EvoLink API 密钥并选择正确的 Seed 2.0 模型枚举值。
Seed 2.0 模型每次请求支持最多 128,000 个令牌(128K)的输出。上下文窗口支持最多 256K 令牌的输入。
Pro 适合高端助手、长篇生成和更高质量的通用任务。Lite 适合成本意识的聊天和内容工作负载。Mini 适合实时响应、路由、分类和大规模吞吐量。Code 适合软件工程、代码审查、调试和开发者工具。
豆包 Seed 2.0 Lite API 价格与接入 | EvoLink