
GPT-5.5 API 定价指南 2026:费用、缓存输入与长上下文阶梯价格

GPT-5.5 API 定价指南 2026:费用、缓存输入与长上下文阶梯价格
GPT-5.5 API 价格总览
| 计费项 | EvoLink 价格 | 说明 |
|---|---|---|
| 标准输入 | $4.00 / 百万 Token | 提示词、系统指令、对话历史及其他输入文本 |
| 输出 | $24.00 / 百万 Token | 可见回答 Token,以及涉及推理时产生的推理 Token |
| 缓存输入 | $0.40 / 百万 Token | 被复用的提示词/上下文片段,按更低费率计费 |
| 长上下文输入 | $8.00 / 百万 Token | 输入超过 272K Token 时适用 |
| 长上下文输出 | $36.00 / 百万 Token | 同一长上下文会话内适用 |
| 上下文窗口 | 100 万 Token | 大型提示词突破阈值时按长上下文计费规则计算 |
| 最大输出 | 128K Token | 输出预算上限,不代表每次都会生成这么长的回复 |
最关键的计费规则是 272K 阈值。GPT-5.5 支持 100 万 Token 的上下文窗口,但超大提示词会把整个会话切换到长上下文费率。
GPT-5.5 计费方式详解
GPT-5.5 的计费分为三个主要 Token 类别:输入、输出和缓存输入。
缓存输入示例
假设你的应用每次都会发送一段固定的 50K Token 指令和文档块。
| 请求类型 | 计算方式 | 费用 |
|---|---|---|
| 首次未缓存请求 | 50K x $4.00 / 1M | $0.20 |
| 后续缓存请求 | 50K x $0.40 / 1M | $0.02 |
这就是为什么稳定的提示词设计至关重要。保持可复用的指令在各请求间完全一致,并将长且稳定的上下文放在能够被持续复用的位置。
272K Token 以上的长上下文定价
GPT-5.5 拥有超大的上下文窗口,但长上下文请求需要单独的费用规划。在 EvoLink 上,当输入超过 272K Token 时,长上下文费率如下:
| GPT-5.5 阶梯 | 输入 | 输出 |
|---|---|---|
| 标准定价 | $4.00 / 百万 Token | $24.00 / 百万 Token |
| 长上下文定价 | $8.00 / 百万 Token | $36.00 / 百万 Token |
长上下文费率应用于整个会话,而不只是超出 272K 的那部分 Token。如果你发送了 300K 输入 Token,那么全部 300K 输入 Token 都会按长上下文输入费率计费。
长上下文费用示例
以下是一个 300K 输入 / 20K 输出的请求:
| 费用明细 | 计算方式 | 费用 |
|---|---|---|
| 输入 | 300K x $8.00 / 1M | $2.40 |
| 输出 | 20K x $36.00 / 1M | $0.72 |
| 合计 | $2.40 + $0.72 | $3.12 |
如果同样的请求没有超过长上下文阈值,按标准费率计算的费用约为 $1.68。这不是说你要一味地把内容拆分成小块,而是你需要判断:把所有内容塞进一次完整的上下文请求,多出的费用是否值得。
GPT-5.5 API 费用示例
以下示例可作为规划参考。实际费用取决于提示词长度、输出长度、缓存命中率、重试次数以及是否产生推理 Token。
| 场景 | 输入 | 输出 | 适用费率 | 预估费用 |
|---|---|---|---|---|
| 客服回复 | 2K | 500 | 标准 | $0.020 |
| 代码审查 | 20K | 5K | 标准 | $0.200 |
| 仓库级代码分析 | 300K | 20K | 长上下文 | $3.120 |
费用计算过程:
- 2K 输入 + 500 输出 =
(2,000 x $4 / 1M) + (500 x $24 / 1M)= $0.020 - 20K 输入 + 5K 输出 =
(20,000 x $4 / 1M) + (5,000 x $24 / 1M)= $0.200 - 300K 输入 + 20K 输出 =
(300,000 x $8 / 1M) + (20,000 x $36 / 1M)= $3.120
GPT-5.5 与 GPT-5.4 价格对比
GPT-5.5 是 GPT 系列中的高端路线,GPT-5.4 则是性价比更高的旗舰路线。这里只做简要对比,完整的模型比较应放在专门的 GPT-5.5 vs GPT-5.4 文章中。
| 模型 | 输入 | 输出 | 缓存输入 | 上下文 |
|---|---|---|---|---|
| GPT-5.5 | $4.00 / 百万 Token | $24.00 / 百万 Token | $0.40 / 百万 Token | 100 万 |
| GPT-5.4 | $2.00 / 百万 Token | $12.00 / 百万 Token | $0.20 / 百万 Token | 105 万 |
如果你需要大上下文但对价格更敏感,优先考虑 GPT-5.4。在任务推理要求高、质量敏感或重试成本大的场景下,再测试 GPT-5.5。
什么场景下 GPT-5.5 物有所值?
GPT-5.5 并不适合所有请求。它最适合任务价值能够撑起高端定价的场景。
适合使用 GPT-5.5 的场景
- 复杂推理任务,出错代价很高
- 全仓库代码分析、架构评审、多文件调试
- 多文档综合研究与知识整合
- Agent 工作流,高质量规划可减少重试
- 高价值输出,需要尽量减少人工修正
不适合使用 GPT-5.5 的场景
- 简单分类
- 批量摘要
- 轻量级信息提取
- 低利润的内容生成
- 原型验证阶段,用便宜模型就够了
实用原则很简单:当更强的推理能力能减少失败、重试或人工复核时,用 GPT-5.5;当任务是常规性的,用更便宜的 GPT 路线。
如何降低 GPT-5.5 API 成本
1. 缓存稳定的提示词
保持可复用的系统提示词、策略文本、工具描述和文档块不变。缓存输入的价格是 $0.40 / 百万 Token,而非缓存的标准输入是 $4.00 / 百万 Token。
2. 简单任务分流到低成本模型
不要把每个请求都发给 GPT-5.5。简单任务用低成本的 GPT 路线处理,GPT-5.5 只用于兜底升级或高价值推理。
def select_model(task_complexity: str) -> str:
if task_complexity == "simple":
return "gpt-5.1"
if task_complexity == "standard":
return "gpt-5.2"
if task_complexity == "long_context":
return "gpt-5.4"
return "gpt-5.5"3. 避免不必要的长上下文请求
如果你的提示词接近 272K Token,先检查能否通过检索、摘要或分块来缩减请求量,同时不影响回答质量。
4. 按成功任务追踪成本
Token 单价只是一个维度。还要追踪重试次数、校验失败率、人工复核时间、延迟和最终成功率。更贵的模型如果能避免反复失败,整体算下来可能更便宜——但这需要在你自己的工作流中实测。
5. 把 GPT-5.5 作为升级路线
一种常见做法是先用 GPT-5.2 或 GPT-5.4,仅在校验失败、置信度低或用户明确要求深度分析时,才升级到 GPT-5.5。
常见问题
GPT-5.5 API 费用是多少?
GPT-5.5 在 EvoLink 上的价格为:输入 $4.00 / 百万 Token、输出 $24.00 / 百万 Token、缓存输入 $0.40 / 百万 Token。当输入超过 272K Token 时,长上下文定价为输入 $8.00、输出 $36.00 / 百万 Token。
GPT-5.5 缓存输入怎么收费?
GPT-5.5 在 EvoLink 上的缓存输入价格为 $0.40 / 百万 Token。当你的应用反复发送相同的指令、文档、工具定义或对话模板时,缓存输入能有效降低成本。
输入超过 272K Token 会怎样?
当输入超过 272K Token,GPT-5.5 在 EvoLink 上将按长上下文计费:输入 $8.00 / 百万 Token,输出 $36.00 / 百万 Token。长上下文费率应用于整个会话。
GPT-5.5 比 GPT-5.4 贵吗?
是的。GPT-5.5 的定价高于 GPT-5.4。在 EvoLink 上,GPT-5.5 的输入/输出价格为 $4.00 / $24.00 / 百万 Token,而 GPT-5.4 为 $2.00 / $12.00。
GPT-5.5 用来写代码划算吗?
对于多文件调试、仓库级分析、架构评审和 Agent 编码工作流等复杂编码任务,GPT-5.5 值得一试。如果只是简单的代码补全或小规模修改,用更便宜的 GPT 路线效率更高。
GPT-5.5 能通过 OpenAI 兼容 API 使用吗?
可以。EvoLink 提供 OpenAI 兼容的接入方式,大多数团队只需修改 base URL、API Key 和模型名即可迁移。
from openai import OpenAI
client = OpenAI(
api_key="your-evolink-api-key",
base_url="https://api.evolink.ai/v1"
)
response = client.chat.completions.create(
model="gpt-5.5",
messages=[
{"role": "user", "content": "Summarize the main risks in this codebase."}
]
)在哪里可以对比 GPT-5.5 和其他 GPT 模型?
先了解 GPT-5.5 定价,再在真实任务中验证
GPT-5.5 是高端路线,所以正确的问题不仅仅是"每个 Token 多少钱?",更重要的是"每个成功任务的成本是多少?"
建议从小规模测试集开始,统计重试次数和人工复核时间,将 GPT-5.5 与 GPT-5.4 或 GPT-5.2 做对比,把 GPT-5.5 留给那些真正能改变结果的工作流。


