
GPT Image 2(2026):OpenAI 官方状态与接入思路

GPT Image 2(2026):OpenAI 官方状态与接入思路
- 截至 2026 年 4 月 22 日,OpenAI 已经为
gpt-image-2提供了官方公开模型页。 - 在 EvoLink 上,
gpt-image-2已经可以直接接入,gpt-image-2-beta也作为补充测试线路保留。 - 对开发者来说,真正重要的是:哪些信息属于 OpenAI 官方确认、provider 当前怎么暴露模型,以及系统该怎么设计,后续迁移才不会卡住。
所以这篇文章不会先讲营销口径,而是先把 OpenAI 官方状态讲清楚,再讨论在 EvoLink 上最稳的接入思路。
这篇指南写给真正在做图像业务的团队:商品图生成、图片编辑流水线、创意自动化、原型图输出、多步骤 AI 交互。我们会讲清楚三件事:
- OpenAI 官方确认了什么?
- 关于 GPT Image 2 的讨论里,哪些还只是不明确、未写清或 provider 特定实现?
- 如果你现在就要做图像生成工作流,最稳的接入与迁移思路是什么?
要点速览
- 截至 2026 年 4 月 22 日,OpenAI 已公开
gpt-image-2的官方模型页。 - OpenAI 官方模型页已经给开发者一个明确锚点:
gpt-image-2是官方公开模型名。 - 单次生成或编辑任务,OpenAI 推荐使用 Image API。
- 多轮对话式图像编辑体验,OpenAI 推荐使用 Responses API。
- EvoLink 当前同时提供
gpt-image-2和gpt-image-2-beta,其中前者更适合作为默认接入线路。 - 想“为 GPT Image 2 做准备”?最稳的做法是:把厂商模型名和渠道路由名分开管理,并在架构上做好模型路由抽象。
现在大家在搜 "GPT Image 2" 时,真正关心的是什么
现在问题已经不再是“这个名字是不是还只是市场叫法”,而是同一个关键词背后混合了几种完全不同的需求。
实际上,"GPT Image 2" 至少对应四类搜索意图:
- "OpenAI 在 GPT Image 1.5 之后出新模型了吗?"
- "ChatGPT 的图像功能是不是又升级了?"
- "我的 API 集成要不要换成新模型 ID?"
- "现在怎么搭架构,以后迁移才省事?"
OpenAI 官方确认了什么
1. gpt-image-2 现在已经有官方公开模型页
gpt-image-2 提供了公开模型页,这意味着 GPT Image 2 不再只是市场叫法,或者开发者社区里的占位词。这很重要,因为它给开发者划了一条新的清晰边界:什么是 OpenAI 官方已确认的,什么仍然只是渠道实现细节或外部表述。
2. OpenAI 提供两条主要的图像 API 集成路径
当前文档把图像相关的 API 分成两种风格:
- Image API:适合单次生成或编辑一张图片。
- Responses API:适合对话式、多步骤、可反复修改的图像体验。
这个选择直接影响系统设计。很多团队纠结模型名称,却忽略了更根本的架构问题:你到底是在做一个一次性出图工具,还是一个可迭代的编辑工作流。
3. 后台模式(Background Mode)已有文档
4. 编辑和高保真图像输入已经是公开功能
当前文档已经支持了很多人以为要等"下一代模型"才有的能力:
- 图像生成与图像编辑
- Responses API 中的多轮编辑
- 输入图像的高保真保留
- 编辑流程中的蒙版(mask)支持
换句话说,"下一代图像工作流"的大部分能力,在当前技术栈里已经可以用了。
OpenAI 还没有完全写清楚的内容
这是现在最容易被写混的地方。
- 所有第三方平台都会用完全一样的请求模型名来暴露它
- 一个叫
gpt-image-2-beta的路由名,就等于 OpenAI 官方命名语义上的gpt-image-2 - 从
gpt-image-1.5到gpt-image-2的官方迁移指南 GPT Image 2的官方延迟基准测试- "文字渲染提升 40%"或"成功率 95%"之类的官方性能对比
任何把这些差异直接抹平的写法,都会削弱文章可信度。
对大多数团队来说,更现实的做法是:先用 OpenAI 官方文档确认厂商层事实,再把 EvoLink beta 文档当作当前路由接入层的实现说明来读。
EvoLink 接入:以 GPT Image 2 为主,Beta 作为补充
gpt-image-2 直接接入,同时也保留 gpt-image-2-beta 作为补充测试线路。gpt-image-2 应该是主模型名。如果你需要做灰度验证、效果对比或分阶段测试,再去用 gpt-image-2-beta 就可以,不需要让 beta 抢主线。目前可用内容包括:
- GPT Image 2 产品页——查看模型能力和使用场景
- Playground 在线试用——零代码测试提示词和工作流
- 完整的 API 文档——当前 GPT Image 2 路线的接入说明
- 支持文生图、图生图、图像编辑
- 异步任务处理——适配长时间生成任务
接入方式和你熟悉的 OpenAI 兼容格式一致:
- 默认请求模型名:
gpt-image-2 - 生成端点:
/v1/images/generations - 通过任务状态流获取异步结果
- 可选
image_urls参数,支持参考图编辑或图生图 - 可选
callback_url参数,用于 HTTPS 任务完成回调 - 支持的宽高比:
1:1、3:2、2:3、auto - 返回的图片链接默认保留 24 小时
- 补充测试线路:
gpt-image-2-beta
gpt-image-2。只有在你明确要做灰度测试、效果对比或阶段性验证时,才需要额外用到 gpt-image-2-beta。怎么在 EvoLink 上调用 GPT Image 2
gpt-image-2 作为统一图像生成端点的请求模型名:curl --request POST \
--url https://api.evolink.ai/v1/images/generations \
--header "Authorization: Bearer $EVOLINK_API_KEY" \
--header "Content-Type: application/json" \
--data '{
"model": "gpt-image-2",
"prompt": "一张高级感的陶瓷咖啡杯产品图,放在大理石台面上,柔和的窗光,干净的电商构图",
"size": "1:1"
}'image_urls 参数。开发流程很简单:
- 在 GPT Image 2 Playground 里测试提示词
- 切换到 API 调用,指定
model: "gpt-image-2" - 轮询异步任务结果
- 在 24 小时有效期内保存图片链接
怎么搭一个不怕迁移的架构
gpt-image-2 路线,还是在对比其它图像模型,架构上做好这几件事,以后换模型就不痛苦。gpt-image-1.5 仍然是重要的对比基线
gpt-image-2 现在已经有官方公开模型页,gpt-image-1.5 仍然是团队做能力对比、稳定性评估和迁移设计时的重要参考。它已经覆盖了大多数团队关心的核心能力:- 文生图
- 图像编辑
- 通过 Responses API 实现对话式图像工作流
- 比上一代更好的文字渲染
- 更高保真度的输入图像保留
gpt-image-1.5 是最稳的默认选择。从第一天就把模型路由抽象出来
这是真正的"为 GPT Image 2 做准备"策略——不要在代码里到处硬编码模型名,把路由决策集中到服务层。
type ImageJobType =
| "hero_image"
| "text_heavy_mockup"
| "product_edit"
| "creative_iteration";
function selectImageModel(jobType: ImageJobType): string {
switch (jobType) {
case "text_heavy_mockup":
return "gpt-image-1.5"; // 需要对齐旧文档时的保守选择
case "hero_image":
case "product_edit":
case "creative_iteration":
default:
return "gpt-image-2"; // 默认走最新模型
}
}等你需要切换模型,或者要对齐不同 provider 的路由名时,改的只是路由表,不是全仓库搜索替换。
异步架构是必须的
不管用哪个模型,图像生成的延迟波动都够大了。OpenAI 文档明确提到复杂提示词可能需要最多 2 分钟,后台模式是官方推荐的处理方式。
一个生产级的架构应该是:
- 提交图像请求
- 立即返回任务 ID
- 后台轮询
- 完成后存储结果
- 最终素材就绪后更新 UI
用 Responses API 实现的最小轮询示例:
import OpenAI from "openai";
const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });
export async function submitImageJob(prompt: string) {
const response = await client.responses.create({
model: "gpt-4o",
input: prompt,
tools: [{ type: "image_generation" }],
background: true,
});
return response.id;
}
export async function waitForImage(responseId: string) {
let resp = await client.responses.retrieve(responseId);
while (resp.status === "queued" || resp.status === "in_progress") {
await new Promise((resolve) => setTimeout(resolve, 2000));
resp = await client.responses.retrieve(responseId);
}
return resp;
}这个模式不管将来模型叫什么名字,都能用。
GPT Image 2 的编辑能力到了什么水平
如果你的场景是单次图像生成或编辑,优先走 Image API;如果是多轮对话式图像工作流,再考虑 Responses API。
OpenAI 当前文档已经覆盖了以下编辑能力:
- 图像编辑 和 多轮编辑
- 高保真输入 和 蒙版编辑工作流
所以如果你想做背景替换、小物体编辑、迭代式视觉精修、品牌元素保留(logo、人脸等),现在就可以开始——不需要等。
定价参考:只用能核实的数据
gpt-image-2 的 token 价格:| 模型 | 文本输入 | 缓存文本输入 | 图像输入 | 缓存图像输入 | 图像输出 |
|---|---|---|---|---|---|
gpt-image-2 | $5.00 / 1M tokens | $1.25 / 1M tokens | $8.00 / 1M tokens | $2.00 / 1M tokens | $30.00 / 1M tokens |
gpt-image-1.5 | $5.00 / 1M tokens | $1.25 / 1M tokens | $8.00 / 1M tokens | $2.00 / 1M tokens | $32.00 / 1M tokens |
gpt-image-1 | $5.00 / 1M tokens | $1.25 / 1M tokens | $10.00 / 1M tokens | $2.50 / 1M tokens | $40.00 / 1M tokens |
gpt-image-1.5 和 gpt-image-1 还有按 1024×1024 单张生成展示的价格:| 模型 | Low | Medium | High |
|---|---|---|---|
gpt-image-1.5 | $0.009 | $0.034 | $0.133 |
gpt-image-1 | $0.011 | $0.042 | $0.167 |
gpt-image-1.5 还有更细的 token 维度参考:- 文本输入:$5.00 / 1M tokens
- 图像输入:$8.00 / 1M tokens
- 图像输出:$32.00 / 1M tokens
1024×1024 各质量级别的输出 token 数:
- low:272
- medium:1,056
- high:4,160
这组价格在这篇里的意义,不是为了替你直接决定“哪个最值”,而是帮你建立一个判断框架:
- 如果你要的是官方可核查的价格基线,优先看 OpenAI 已公开的
gpt-image-1.5 - 如果你要的是EvoLink 当前可接入线路的实际价格,就看 EvoLink 产品页,而不要把两边价格混写成同一层级
- 如果你要做内部预算,最好把“官方价格参考”和“provider 实际接入价格”分成两列管理
务实的成本策略
方案一:一次生成,迭代编辑
- 用
gpt-image-1.5生成基础图 - 用编辑和多轮工作流做精修
- 只需要改一个区域时,避免整张重新生成
方案二:按任务类型路由
- 标准商品图 ->
gpt-image-2 - 商品编辑 ->
gpt-image-2 - 文字密集型设计稿(需对齐旧文档)->
gpt-image-1.5 - 未来试验模型 -> 单独隔离的测试桶
重点不是猜下一个模型叫什么,而是让未来换模型的成本尽可能低。
典型业务场景怎么落地
如果想把这篇文章真正用起来,最有帮助的不是继续追模型名,而是把常见业务场景和推荐线路对上。
| 业务场景 | 更推荐的线路 | 为什么 |
|---|---|---|
| 电商商品主图生成 | gpt-image-2 | 适合直接接入生产链路,减少命名和路由切换成本 |
| 背景替换、局部编辑、品牌元素保留 | gpt-image-2 | 更适合围绕图像编辑工作流直接落地 |
| 创意团队做新提示词实验 | gpt-image-2-beta | 更适合做灰度验证和结果对比 |
| Agent 驱动的异步出图流水线 | gpt-image-2 | 主线路更适合作为稳定编排目标,配合任务轮询或回调 |
| 团队内部做 A/B 效果对比 | gpt-image-2 + gpt-image-2-beta | 用正式线路跑主样本,用 beta 路线做补充比较 |
如果你是做业务系统,而不是单次试玩,真正应该优先做对的是:
- 任务异步化
- 路由抽象
- 图片结果保存
- 正式线路和测试线路分开
现在该怎么行动
到这一步,大多数团队其实已经不缺“更多消息”,而是缺一个明确动作顺序。
如果你今天就要推进项目,比较实用的路径是:
- 现在就试用 GPT Image 2,评估它适不适合你的业务场景
- 现在就接入 到开发或测试环境
- 等后续官方文档和 provider 路由进一步稳定后,只需要调整路由配置,平滑切换
当前 GPT Image 技术栈已经有足够的能力来搭建:
- 图像生成流水线
- 编辑工作流
- 迭代精修循环
- 异步任务调度
- 成本感知路由
后续还值得关注什么
gpt-image-2 官方模型页。接下来更值得关注的信号是:- 更新后的图像生成文档,列出新的 GPT Image 系列成员
- 新模型的官方定价表
- 变更日志或发布说明
- 从当前 GPT Image 模型的官方迁移指南
gpt-image-2 作为主接入目标,只有在需要额外测试时再补用 gpt-image-2-beta。上线前检查清单
如果你准备把 GPT Image 2 真正接进业务,而不只是看一遍文档,建议上线前至少确认这几件事:
- 代码里有没有把模型名写死在多个地方,而不是统一走路由配置
- 生产默认线路是不是
gpt-image-2,而不是把 beta 路线误当主线 - 是否已经给
gpt-image-2-beta单独留了开关,避免测试线路误进生产 - 是否已经处理异步任务状态,而不是假设请求一定会立刻返回最终图片
- 是否已经在 24 小时有效期内保存图片结果,而不是依赖临时链接
- 是否已经区分“OpenAI 官方模型信息”和“EvoLink 当前 provider 路由实现”
- 是否已经准备好回调或轮询机制,适配长时间生成任务
常见问题
既然 GPT Image 2 已公开,现在还需要异步架构吗?
需要。OpenAI 文档已经说明复杂提示词可能需要最多 2 分钟,后台模式是推荐的处理方式。
现在就能做迭代式图像编辑吗?
可以。OpenAI 当前文档覆盖了图像编辑、多轮编辑、蒙版和高保真图像输入。
后续如果模型名或 provider 路由再变化,需要重写应用吗?
如果你现在就把模型路由抽象出来,就不需要。未来的模型切换应该是路由表的修改,而不是全应用重构。
在 EvoLink 上怎么理解 gpt-image-2 和 gpt-image-2-beta?
gpt-image-2。在 EvoLink 上,gpt-image-2 适合作为主接入线路,gpt-image-2-beta 更适合作为补充测试线路,用于效果对比、灰度验证或阶段性测试。现在要接的话,最实用的默认选择是什么?
gpt-image-2。只有在你明确需要做灰度测试、A/B 对比或阶段性验证时,再额外启用 gpt-image-2-beta。开始使用
gpt-image-2-beta。相关文章
参考来源
- OpenAI 模型总览:https://platform.openai.com/docs/models
- OpenAI 图像生成指南:https://developers.openai.com/api/docs/guides/image-generation
- OpenAI GPT Image 1.5 模型页面:https://platform.openai.com/docs/models/gpt-image-1.5
- OpenAI GPT Image 2 模型页面:https://platform.openai.com/docs/models/gpt-image-2
- OpenAI 后台模式指南:https://developers.openai.com/api/docs/guides/background


