豆包 Seed 2.0 API
$0.028 - 0.111(~ 2 - 8 credits) per 1M input tokens; $0.278 - 1.111(~ 20 - 80 credits) per 1M output tokens
$0.0056(~ 0.4 credits) per 1M cache read tokens
Cache storage charged separately per hour.
稳定性最高,保证 99.9% 可用性。推荐用于生产环境。
所有版本使用同一个 API 端点,仅 model 参数不同。
豆包 Seed 2.0 Mini API 价格与接入
通过一个 EvoLink API 密钥使用豆包 Seed 2.0 Mini。本页面聚焦 Mini 版本,适用于高吞吐量推理、低延迟和需要速度优先的生产系统。

使用豆包 Seed 2.0 Mini 可以构建什么?
Seed 2.0 Pro 用于旗舰级助手
Seed 2.0 Pro 是您想要获得主流 Seed 2.0 API 体验的最佳起点:为企业助手、长上下文问答、智能体工作流和高端通用文本生成提供更强的质量。

Seed 2.0 Code 用于编程智能体
Seed 2.0 Code 是该系列中专注于编程的成员。当您的工作负载更接近编程模型 API 而非通用聊天机器人时,可使用它进行代码生成、调试、审查、重构和文档编写。

Seed 2.0 Lite 和 Mini 用于高效生产
Seed 2.0 Lite 是日常生产流量的成本高效选择,而 Seed 2.0 Mini 是用于批处理作业、分类、路由和大规模低延迟推理的更快、更轻量的选择。

为什么团队选择豆包 Seed 2.0 Mini
Seed 2.0 在 EvoLink 上表现出色,因为该模型系列清晰地映射到实际生产权衡:Pro 提供旗舰级质量,Lite 提供低成本覆盖,Mini 提供更快的吞吐量,Code 提供编程专用输出。
统一网关进行模型选择
通过一个 EvoLink 端点和一个 API 密钥路由所有四个 Seed 2.0 版本,无需管理单独的提供商集成。
与实际使用匹配的定价
Seed 2.0 计费按提示长度缩放,因此短请求不会为 256K 容量多付费。下方的定价表是买家比较实际 API 成本的地方。
生产友好的成本控制
缓存命中计费降低了重复前缀和系统提示的成本,这对于智能体、助手和标准化企业流程特别有用。
如何集成豆包 Seed 2.0 Mini API
使用 EvoLink API 并选择 Mini 模型枚举值。迁移通常只需更换基础 URL 加上 doubao-seed-2.0-mini。
步骤 1 — 身份验证
创建 EvoLink API 密钥,并从您的应用、智能体或后端服务使用 Bearer 令牌身份验证发送请求。
步骤 2 — 使用 Mini 模型 ID
将 model 设置为 doubao-seed-2.0-mini 以在 EvoLink 上使用 Mini 版本。
步骤 3 — 调整输出
调整 temperature、top_p、max_tokens、stream 和其他参数。提示长度层级和缓存计费会在 API 定价模型中自动应用。
豆包 Seed 2.0 Mini API 核心能力
来自字节跳动火山引擎的模型事实,以及 EvoLink 定价和访问信号
256K 上下文窗口
使用最多 256K 上下文处理长文档、大型代码库和多步智能体提示,无需切换到不同的模型系列。
按长度分层定价
定价根据提示长度变化(≤32K、≤128K、≤256K),这使得 Seed 2.0 更容易为同时包含短请求和长请求的混合工作负载购买。
缓存命中计费
通过缓存命中计费降低重复前缀和系统提示的成本,特别是在提示模板经常重复的生产环境中。
4 个模型版本
Pro 用于旗舰级通用质量,Lite 用于成本高效的流量,Mini 用于高吞吐量低延迟请求,Code 用于编程工作流。
兼容 OpenAI SDK
保留您现有的 OpenAI SDK 流程,通过更新基础 URL 和模型枚举值以最小的应用程序更改切换提供商。
多语言支持
强大的中英文性能使 Seed 2.0 适用于双语产品、区域支持流程和全球部署的助手。
豆包 Seed 2.0 Mini API 常见问题
Everything you need to know about the product and billing.