
OpenAI Moderation API 定价:到底免不免费?限制与替代方案

但这并不意味着决策到此结束。生产环境中的团队仍然需要弄清楚:这个端点覆盖了什么、不覆盖什么、速率限制怎么算、以及什么时候一个付费或平台级的审核方案反而更省心。
这篇文章把官方定价和实际工程决策分开来讲。
要点速览
- OpenAI 的 Moderation 端点对 OpenAI API 用户免费,这是 OpenAI 帮助中心的官方说法。
- OpenAI 的
omni-moderation-latest模型用于检测有害内容,支持文本和图片输入——来自 OpenAI 官方模型页面。 - 免费不等于零成本:日志、审核队列、策略映射、重试机制、降级方案、业务特定的判断逻辑——这些工作流成本仍然存在。
- 如果你已经直接使用 OpenAI,且审核需求刚好匹配它的分类和返回格式,免费端点是好选择。
- 如果你需要文本和图片混合审核、
risk_level风险摘要、按次计费的可预测价格,并且希望审核流程和你的 API 调用在同一平台内完成,可以考虑 EvoLink Moderation 1.0——一个 OpenAI 兼容的内容审核 API。
OpenAI Moderation API 到底免不免费?
免费。OpenAI 帮助中心明确写道:Moderation 端点对 OpenAI API 用户免费,使用量不计入每月用量限额。
这是定价层面的回答。接下来的问题是运营层面的:
对原型项目、内部工具、简单的纯文本审核场景来说,可能够了。但如果你的应用涉及用户生成内容、图片上传、AI Agent、或人工复审队列,那么 API 调用本身只是整个系统的一小部分。
OpenAI Moderation 覆盖了什么?
omni-moderation-latest 定义为一个审核模型,用于识别文本和图片中的潜在有害内容。官方模型页面称其为 OpenAI 能力最强的审核模型,支持文本输入/输出和图片输入。omni-moderation-latest,不支持图片输入的类别会返回分数 0。这意味着团队在使用前需要仔细核对类别表,不能想当然地认为所有文本类别都适用于图片审核。
真正的成本在工作流,不在 API 价格
Moderation 端点本身可能是免费的,但一个生产级的审核系统仍然需要在以下环节做出决策:
- 审核在什么时机执行:调用模型之前、模型返回之后、还是两端都做
- 怎么把分类结果映射成"放行 / 人审 / 拦截"的业务决策
- 怎么记录审核结果,又不额外存储敏感内容
- 怎么处理误判和申诉
- 怎么把图片审核和文本审核的流程分开或合并
- 怎么监控延迟、错误率和速率限制
- 怎么在多个产品线上保持策略一致
这些是工程和运维成本。它们不会出现在任何定价页面上,但决定了你的审核层是否真的能长期维护。
什么时候 OpenAI 免费端点就够用了
OpenAI 的免费 Moderation 端点通常在这些场景下是好选择:
- 你已经在直接使用 OpenAI 的 API
- 你的应用以文本为主
- OpenAI 现有的审核类别覆盖了你的需求
- 你能自建复审和升级工作流
- 你的团队有能力自行处理返回值解析、阈值设定和日志记录
在这种情况下,免费端点几乎没有理由不用。先跑起来,用你的真实内容测试,量化误判率和漏检率,然后再决定是否上线。
什么时候需要一个 OpenAI 兼容的替代方案
/v1/moderations 端点工作。不需要把审核当成 API 平台之外的独立工具,它直接集成在你用来调用其他模型的同一个 EvoLink 工作流里。EvoLink Moderation 1.0 适合以下需求:
- 纯文本、纯图片、文本+图片三种输入模式走同一个端点
- 13 个有害内容类别,每个类别给出独立分数
- 一个
evolink_summary对象,包含risk_level、flagged、violations、max_score和max_category - 按次计费,不需要计算 token 消耗
- 返回格式天然适合映射成"放行 / 人审 / 拦截"的业务逻辑
OpenAI vs EvoLink:定价与工作流对比
| 对比项 | OpenAI Moderation API | EvoLink Moderation 1.0 |
|---|---|---|
| 审核端点是否免费? | 是,对 OpenAI API 用户免费(来自 OpenAI 帮助中心) | 否,EvoLink 采用按次计费 |
| 端点格式 | /v1/moderations | OpenAI 兼容的 /v1/moderations |
| 文本审核 | 支持 | 支持 |
| 图片审核 | omni-moderation-latest 支持,但部分类别仅限文本 | 支持纯图片和文本+图片请求 |
| 生产决策字段 | 需要自行解析各类别分数 | evolink_summary.risk_level 直接用于放行/人审/拦截 |
| 最佳适用场景 | 已经在 OpenAI 生态内的团队 | 希望审核流程集成在 EvoLink API 工作流中的团队 |
这不是一个非此即彼的比较。对很多 OpenAI 原生应用来说,OpenAI 的端点就是最合理的选择。EvoLink 更适合这样的场景:你的审核工作流需要统一的文本和图片端点、简化的风险摘要、以及基于 EvoLink 的计费和运维。
如何在 Python 中使用 OpenAI Moderation API
如果你已经在使用 OpenAI SDK,一个基本的文本审核调用如下:
from openai import OpenAI
client = OpenAI()
response = client.moderations.create(
model="omni-moderation-latest",
input="user text here"
)
print(response.results[0].flagged)
print(response.results[0].categories)base_url,使用你的 EvoLink API Key,并将模型设置为 evolink-moderation-1.0:from openai import OpenAI
client = OpenAI(
api_key="YOUR_EVOLINK_API_KEY",
base_url="https://direct.evolink.ai/v1"
)
response = client.moderations.create(
model="evolink-moderation-1.0",
input="user text here"
)
summary = response.model_extra["evolink_summary"]
print(summary["risk_level"])
print(summary["violations"])evolink_summary 对象和 risk_level 字段,天然适合映射为放行、人审或拦截的业务决策。实用建议
如果你的应用本身就是 OpenAI 原生的,且审核策略刚好匹配 OpenAI 的文档类别,用 OpenAI 的免费 Moderation 端点。
如果你的应用有自定义策略需求——品牌规则、人工复审、申诉流程、合规工作流——任何单一审核 API 都不够,建议搭建多层审核体系。
常见问题
OpenAI Moderation API 是免费的吗?
是的。OpenAI 帮助中心说明 Moderation 端点对 OpenAI API 用户免费,且不计入每月用量限额。
OpenAI Moderation 支持图片吗?
omni-moderation-latest 接受图片输入,这是 OpenAI 官方模型页面的说明。但 OpenAI 的审核指南也指出部分类别仅支持文本,因此团队在依赖纯图片审核之前,需要核对各类别的输入支持情况。EvoLink Moderation 比 OpenAI Moderation 更便宜吗?
risk_level 摘要的团队。能用 EvoLink Moderation 替代 OpenAI Moderation API 吗?
model: evolink-moderation-1.0,返回标准审核字段加上 evolink_summary。应该审核输入、输出、还是两端都审核?
对生产级 AI 应用来说,很多团队选择两端都做。输入审核可以在请求到达模型之前过滤不安全内容;输出审核可以在生成内容到达用户之前拦截不安全响应。
omni-moderation-latest 是什么?
omni-moderation-latest 是 OpenAI 当前用于文本和图片输入的审核模型。详细的输入格式、类别行为和生产用例,请阅读我们的 omni-moderation-latest 指南。OpenAI Moderation API 的速率限制是多少?
如何在 Python 中使用 OpenAI Moderation API?
client.moderations.create() 并传入 model="omni-moderation-latest" 和你的输入文本或图片。上面的 Python 示例代码展示了 OpenAI 和 EvoLink 兼容的两种请求格式。相关审核指南
- omni-moderation-latest 详解:OpenAI Moderation API 指南
- 最佳内容审核 API 与工具推荐
- 图片审核 API 指南:如何过滤不安全的用户上传图片
- 如何为聊天机器人或 AI Agent 添加内容审核


