HappyHorse 1.0 即将上线了解更多
GPT Image 2(2026):OpenAI 官方状态与接入思路
guide

GPT Image 2(2026):OpenAI 官方状态与接入思路

EvoLink Team
EvoLink Team
Product Team
2026年4月22日
23 分钟阅读

GPT Image 2(2026):OpenAI 官方状态与接入思路

如果你在搜 GPT Image 2,最先要搞清楚的不是“谁先有”,而是下面三件更实际的事:
  1. 截至 2026 年 4 月 22 日,OpenAI 已经为 gpt-image-2 提供了官方公开模型页。
  2. 在 EvoLink 上,gpt-image-2 已经可以直接接入,gpt-image-2-beta 也作为补充测试线路保留。
  3. 对开发者来说,真正重要的是:哪些信息属于 OpenAI 官方确认、provider 当前怎么暴露模型,以及系统该怎么设计,后续迁移才不会卡住。

所以这篇文章不会先讲营销口径,而是先把 OpenAI 官方状态讲清楚,再讨论在 EvoLink 上最稳的接入思路。

这篇指南写给真正在做图像业务的团队:商品图生成、图片编辑流水线、创意自动化、原型图输出、多步骤 AI 交互。我们会讲清楚三件事:

  • OpenAI 官方确认了什么
  • 关于 GPT Image 2 的讨论里,哪些还只是不明确、未写清或 provider 特定实现
  • 如果你现在就要做图像生成工作流,最稳的接入与迁移思路是什么?

要点速览

  • 截至 2026 年 4 月 22 日,OpenAI 已公开 gpt-image-2 的官方模型页。
  • OpenAI 官方模型页已经给开发者一个明确锚点:gpt-image-2 是官方公开模型名。
  • 单次生成或编辑任务,OpenAI 推荐使用 Image API
  • 多轮对话式图像编辑体验,OpenAI 推荐使用 Responses API
  • EvoLink 当前同时提供 gpt-image-2gpt-image-2-beta,其中前者更适合作为默认接入线路。
  • 想“为 GPT Image 2 做准备”?最稳的做法是:把厂商模型名和渠道路由名分开管理,并在架构上做好模型路由抽象

现在大家在搜 "GPT Image 2" 时,真正关心的是什么

现在问题已经不再是“这个名字是不是还只是市场叫法”,而是同一个关键词背后混合了几种完全不同的需求。

实际上,"GPT Image 2" 至少对应四类搜索意图:

  1. "OpenAI 在 GPT Image 1.5 之后出新模型了吗?"
  2. "ChatGPT 的图像功能是不是又升级了?"
  3. "我的 API 集成要不要换成新模型 ID?"
  4. "现在怎么搭架构,以后迁移才省事?"
所以这篇文章的重点,不是继续讨论名字真不真,而是把官方模型信息、EvoLink 当前接入方式、以及可落地的工程策略讲清楚。

OpenAI 官方确认了什么

1. gpt-image-2 现在已经有官方公开模型页

OpenAI 现在已经为 gpt-image-2 提供了公开模型页,这意味着 GPT Image 2 不再只是市场叫法,或者开发者社区里的占位词。

这很重要,因为它给开发者划了一条新的清晰边界:什么是 OpenAI 官方已确认的,什么仍然只是渠道实现细节或外部表述。

2. OpenAI 提供两条主要的图像 API 集成路径

当前文档把图像相关的 API 分成两种风格:

  • Image API:适合单次生成或编辑一张图片。
  • Responses API:适合对话式、多步骤、可反复修改的图像体验。

这个选择直接影响系统设计。很多团队纠结模型名称,却忽略了更根本的架构问题:你到底是在做一个一次性出图工具,还是一个可迭代的编辑工作流。

3. 后台模式(Background Mode)已有文档

OpenAI Responses API 文档中包含了 后台模式(background mode),这是官方推荐的长时间任务处理方式。
OpenAI 的图像生成指南明确提到,复杂提示词可能需要最多 2 分钟。这意味着正经的生产系统必须从一开始就按异步来设计。

4. 编辑和高保真图像输入已经是公开功能

当前文档已经支持了很多人以为要等"下一代模型"才有的能力:

  • 图像生成与图像编辑
  • Responses API 中的多轮编辑
  • 输入图像的高保真保留
  • 编辑流程中的蒙版(mask)支持

换句话说,"下一代图像工作流"的大部分能力,在当前技术栈里已经可以用了。

OpenAI 还没有完全写清楚的内容

这是现在最容易被写混的地方。

截至 2026 年 4 月 22 日,下面这些点在 OpenAI 官方文档和不同 provider 的实际接入方式之间,仍然可能存在差异:
  • 所有第三方平台都会用完全一样的请求模型名来暴露它
  • 一个叫 gpt-image-2-beta 的路由名,就等于 OpenAI 官方命名语义上的 gpt-image-2
  • gpt-image-1.5gpt-image-2 的官方迁移指南
  • GPT Image 2 的官方延迟基准测试
  • "文字渲染提升 40%"或"成功率 95%"之类的官方性能对比

任何把这些差异直接抹平的写法,都会削弱文章可信度。

对大多数团队来说,更现实的做法是:先用 OpenAI 官方文档确认厂商层事实,再把 EvoLink beta 文档当作当前路由接入层的实现说明来读。

如果你看完上面的官方状态与能力判断后,想直接落地接入,这里给一个更实用的结论:EvoLink 当前已经提供 gpt-image-2 直接接入,同时也保留 gpt-image-2-beta 作为补充测试线路。
对外叙事里,gpt-image-2 应该是主模型名。如果你需要做灰度验证、效果对比或分阶段测试,再去用 gpt-image-2-beta 就可以,不需要让 beta 抢主线。

目前可用内容包括:

  • GPT Image 2 产品页——查看模型能力和使用场景
  • Playground 在线试用——零代码测试提示词和工作流
  • 完整的 API 文档——当前 GPT Image 2 路线的接入说明
  • 支持文生图、图生图、图像编辑
  • 异步任务处理——适配长时间生成任务

接入方式和你熟悉的 OpenAI 兼容格式一致:

  • 默认请求模型名:gpt-image-2
  • 生成端点:/v1/images/generations
  • 通过任务状态流获取异步结果
  • 可选 image_urls 参数,支持参考图编辑或图生图
  • 可选 callback_url 参数,用于 HTTPS 任务完成回调
  • 支持的宽高比:1:13:22:3auto
  • 返回的图片链接默认保留 24 小时
  • 补充测试线路:gpt-image-2-beta
对大多数团队来说,最干净的默认做法是直接接 gpt-image-2。只有在你明确要做灰度测试、效果对比或阶段性验证时,才需要额外用到 gpt-image-2-beta
当前 EvoLink 的主接入线路使用 gpt-image-2 作为统一图像生成端点的请求模型名:
curl --request POST \
  --url https://api.evolink.ai/v1/images/generations \
  --header "Authorization: Bearer $EVOLINK_API_KEY" \
  --header "Content-Type: application/json" \
  --data '{
    "model": "gpt-image-2",
    "prompt": "一张高级感的陶瓷咖啡杯产品图,放在大理石台面上,柔和的窗光,干净的电商构图",
    "size": "1:1"
  }'
如果需要参考图编辑或图生图,同一路由上也支持 image_urls 参数。

开发流程很简单:

  1. GPT Image 2 Playground 里测试提示词
  2. 切换到 API 调用,指定 model: "gpt-image-2"
  3. 轮询异步任务结果
  4. 在 24 小时有效期内保存图片链接
想直接上手?从 GPT Image 2 产品页开始。如果你确实需要 beta 路线的细节,再看 GPT Image 2 beta API 文档

怎么搭一个不怕迁移的架构

不管你现在用的是 EvoLink 的标准 gpt-image-2 路线,还是在对比其它图像模型,架构上做好这几件事,以后换模型就不痛苦。

gpt-image-1.5 仍然是重要的对比基线

即使 gpt-image-2 现在已经有官方公开模型页,gpt-image-1.5 仍然是团队做能力对比、稳定性评估和迁移设计时的重要参考。它已经覆盖了大多数团队关心的核心能力:
  • 文生图
  • 图像编辑
  • 通过 Responses API 实现对话式图像工作流
  • 比上一代更好的文字渲染
  • 更高保真度的输入图像保留
如果你的业务需要和 OpenAI 公开文档严格对齐,gpt-image-1.5 是最稳的默认选择。

从第一天就把模型路由抽象出来

这是真正的"为 GPT Image 2 做准备"策略——不要在代码里到处硬编码模型名,把路由决策集中到服务层。

type ImageJobType =
  | "hero_image"
  | "text_heavy_mockup"
  | "product_edit"
  | "creative_iteration";

function selectImageModel(jobType: ImageJobType): string {
  switch (jobType) {
    case "text_heavy_mockup":
      return "gpt-image-1.5"; // 需要对齐旧文档时的保守选择
    case "hero_image":
    case "product_edit":
    case "creative_iteration":
    default:
      return "gpt-image-2";  // 默认走最新模型
  }
}

等你需要切换模型,或者要对齐不同 provider 的路由名时,改的只是路由表,不是全仓库搜索替换。

异步架构是必须的

不管用哪个模型,图像生成的延迟波动都够大了。OpenAI 文档明确提到复杂提示词可能需要最多 2 分钟,后台模式是官方推荐的处理方式。

一个生产级的架构应该是:

  1. 提交图像请求
  2. 立即返回任务 ID
  3. 后台轮询
  4. 完成后存储结果
  5. 最终素材就绪后更新 UI

用 Responses API 实现的最小轮询示例:

import OpenAI from "openai";

const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });

export async function submitImageJob(prompt: string) {
  const response = await client.responses.create({
    model: "gpt-4o",
    input: prompt,
    tools: [{ type: "image_generation" }],
    background: true,
  });

  return response.id;
}

export async function waitForImage(responseId: string) {
  let resp = await client.responses.retrieve(responseId);

  while (resp.status === "queued" || resp.status === "in_progress") {
    await new Promise((resolve) => setTimeout(resolve, 2000));
    resp = await client.responses.retrieve(responseId);
  }

  return resp;
}

这个模式不管将来模型叫什么名字,都能用。

GPT Image 2 的编辑能力到了什么水平

如果你的场景是单次图像生成或编辑,优先走 Image API;如果是多轮对话式图像工作流,再考虑 Responses API。

OpenAI 当前文档已经覆盖了以下编辑能力:

  • 图像编辑多轮编辑
  • 高保真输入蒙版编辑工作流

所以如果你想做背景替换、小物体编辑、迭代式视觉精修、品牌元素保留(logo、人脸等),现在就可以开始——不需要等。

有一点要注意:文档支持的是更好的保留和更高的保真度,不是承诺所有情况下都"像素级完美"。

定价参考:只用能核实的数据

截至 2026 年 4 月 22 日,OpenAI 官方 API 定价页已经列出 gpt-image-2 的 token 价格:
模型文本输入缓存文本输入图像输入缓存图像输入图像输出
gpt-image-2$5.00 / 1M tokens$1.25 / 1M tokens$8.00 / 1M tokens$2.00 / 1M tokens$30.00 / 1M tokens
gpt-image-1.5$5.00 / 1M tokens$1.25 / 1M tokens$8.00 / 1M tokens$2.00 / 1M tokens$32.00 / 1M tokens
gpt-image-1$5.00 / 1M tokens$1.25 / 1M tokens$10.00 / 1M tokens$2.50 / 1M tokens$40.00 / 1M tokens
如果你想看更直观的历史参考,OpenAI 公开文档里 gpt-image-1.5gpt-image-1 还有按 1024×1024 单张生成展示的价格:
模型LowMediumHigh
gpt-image-1.5$0.009$0.034$0.133
gpt-image-1$0.011$0.042$0.167
其中,gpt-image-1.5 还有更细的 token 维度参考:
  • 文本输入:$5.00 / 1M tokens
  • 图像输入:$8.00 / 1M tokens
  • 图像输出:$32.00 / 1M tokens

1024×1024 各质量级别的输出 token 数:

  • low:272
  • medium:1,056
  • high:4,160

这组价格在这篇里的意义,不是为了替你直接决定“哪个最值”,而是帮你建立一个判断框架:

  • 如果你要的是官方可核查的价格基线,优先看 OpenAI 已公开的 gpt-image-1.5
  • 如果你要的是EvoLink 当前可接入线路的实际价格,就看 EvoLink 产品页,而不要把两边价格混写成同一层级
  • 如果你要做内部预算,最好把“官方价格参考”和“provider 实际接入价格”分成两列管理
EvoLink 上 GPT Image 2 相关线路的具体定价,请查看 GPT Image 2 产品页

务实的成本策略

方案一:一次生成,迭代编辑

  • gpt-image-1.5 生成基础图
  • 用编辑和多轮工作流做精修
  • 只需要改一个区域时,避免整张重新生成

方案二:按任务类型路由

  • 标准商品图 -> gpt-image-2
  • 商品编辑 -> gpt-image-2
  • 文字密集型设计稿(需对齐旧文档)-> gpt-image-1.5
  • 未来试验模型 -> 单独隔离的测试桶

重点不是猜下一个模型叫什么,而是让未来换模型的成本尽可能低。

典型业务场景怎么落地

如果想把这篇文章真正用起来,最有帮助的不是继续追模型名,而是把常见业务场景和推荐线路对上。

业务场景更推荐的线路为什么
电商商品主图生成gpt-image-2适合直接接入生产链路,减少命名和路由切换成本
背景替换、局部编辑、品牌元素保留gpt-image-2更适合围绕图像编辑工作流直接落地
创意团队做新提示词实验gpt-image-2-beta更适合做灰度验证和结果对比
Agent 驱动的异步出图流水线gpt-image-2主线路更适合作为稳定编排目标,配合任务轮询或回调
团队内部做 A/B 效果对比gpt-image-2 + gpt-image-2-beta用正式线路跑主样本,用 beta 路线做补充比较

如果你是做业务系统,而不是单次试玩,真正应该优先做对的是:

  • 任务异步化
  • 路由抽象
  • 图片结果保存
  • 正式线路和测试线路分开

现在该怎么行动

到这一步,大多数团队其实已经不缺“更多消息”,而是缺一个明确动作顺序。

如果你今天就要推进项目,比较实用的路径是:

  • 现在就试用 GPT Image 2,评估它适不适合你的业务场景
  • 现在就接入 到开发或测试环境
  • 等后续官方文档和 provider 路由进一步稳定后,只需要调整路由配置,平滑切换

当前 GPT Image 技术栈已经有足够的能力来搭建:

  • 图像生成流水线
  • 编辑工作流
  • 迭代精修循环
  • 异步任务调度
  • 成本感知路由
想直接开始? 可以从 EvoLink 的 GPT Image 2开始。想要最保守地对齐 OpenAI 已公开能力,也可以用 EvoLink 上的 GPT Image 1.5

后续还值得关注什么

OpenAI 已经跨过了第一道门槛,也就是公开 gpt-image-2 官方模型页。接下来更值得关注的信号是:
  • 更新后的图像生成文档,列出新的 GPT Image 系列成员
  • 新模型的官方定价表
  • 变更日志或发布说明
  • 从当前 GPT Image 模型的官方迁移指南
在这些信息进一步完善之前,比较稳妥的做法是:先按公开文档搭好可迁移架构,把 gpt-image-2 作为主接入目标,只有在需要额外测试时再补用 gpt-image-2-beta

上线前检查清单

如果你准备把 GPT Image 2 真正接进业务,而不只是看一遍文档,建议上线前至少确认这几件事:

  • 代码里有没有把模型名写死在多个地方,而不是统一走路由配置
  • 生产默认线路是不是 gpt-image-2,而不是把 beta 路线误当主线
  • 是否已经给 gpt-image-2-beta 单独留了开关,避免测试线路误进生产
  • 是否已经处理异步任务状态,而不是假设请求一定会立刻返回最终图片
  • 是否已经在 24 小时有效期内保存图片结果,而不是依赖临时链接
  • 是否已经区分“OpenAI 官方模型信息”和“EvoLink 当前 provider 路由实现”
  • 是否已经准备好回调或轮询机制,适配长时间生成任务

常见问题

既然 GPT Image 2 已公开,现在还需要异步架构吗?

需要。OpenAI 文档已经说明复杂提示词可能需要最多 2 分钟,后台模式是推荐的处理方式。

现在就能做迭代式图像编辑吗?

可以。OpenAI 当前文档覆盖了图像编辑、多轮编辑、蒙版和高保真图像输入。

后续如果模型名或 provider 路由再变化,需要重写应用吗?

如果你现在就把模型路由抽象出来,就不需要。未来的模型切换应该是路由表的修改,而不是全应用重构。

OpenAI 官方模型名是 gpt-image-2。在 EvoLink 上,gpt-image-2 适合作为主接入线路,gpt-image-2-beta 更适合作为补充测试线路,用于效果对比、灰度验证或阶段性测试。

现在要接的话,最实用的默认选择是什么?

如果你要直接落地,默认先接 gpt-image-2。只有在你明确需要做灰度测试、A/B 对比或阶段性验证时,再额外启用 gpt-image-2-beta

开始使用

如果你想现在就开始接 GPT Image 2,EvoLink 已经提供了直接接入;如果你还想做额外测试,也可以再试 gpt-image-2-beta
在 EvoLink 上对比图像模型

相关文章

参考来源

准备好把 AI 成本降低 89% 吗?

现在就开始使用 EvoLink,体验智能 API 路由的强大能力。