
evolink Smart router 怎么用?5分钟完成统一AI模型路由配置(2026)

https://api.evolink.ai/v1/chat/completions 提供 OpenAI 兼容的聊天补全端点,基础 URL 为 https://api.evolink.ai/v1,这在多个集成指南中得到验证。本教程使用这些已确认的集成模式,避免未经验证的路由逻辑、模型池或账户折扣承诺。evolink Smart router 是什么
evolink Smart router 是 EvoLink 统一 API 工作流中的智能路由入口点。它的实际价值不是"自动魔法",而是让你的应用保持单一集成接口,同时由 EvoLink 在网关层处理模型选择决策。- 保持单一 OpenAI 兼容请求格式
- 减少应用层在提供商或模型系列之间的切换
- 在 API 响应中查看路由的模型,而不是到处硬编码一个模型
- 在为生产关键流程固定模型之前,先使用灵活的网关路径
如果你已经明确知道所需的确切模型、延迟配置和成本目标,固定模型 ID 通常是更简洁的选择。
开始前的准备
| 项目 | 准备内容 | 重要性说明 |
|---|---|---|
| EvoLink 账户 | 在 evolink.ai 登录 | 需要访问控制面板设置和账单 |
| API 密钥 | 在 EvoLink 控制面板创建 | 网关使用 Bearer token 认证 |
| 基础 URL | https://api.evolink.ai/v1 | 与代码仓库中其他 OpenAI 兼容 SDK 流程配合使用 |
| Smart router 模型 ID | evolink/auto | 使用此模型 ID 通过网关启用智能路由 |
第一个 curl 请求
curl https://api.evolink.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "evolink/auto",
"messages": [
{
"role": "user",
"content": "用一段话解释向量数据库。"
}
]
}'model 字段指向你的智能路由入口,而不是固定的提供商模型。Python 示例
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.evolink.ai/v1"
)
response = client.chat.completions.create(
model="evolink/auto",
messages=[
{
"role": "user",
"content": "总结延迟和模型质量之间的权衡。"
}
]
)
print(response.model)
print(response.choices[0].message.content)Node.js 示例
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.EVOLINK_API_KEY,
baseURL: "https://api.evolink.ai/v1",
});
const response = await client.chat.completions.create({
model: "evolink/auto",
messages: [
{
role: "user",
content: "列出团队使用 AI 网关的三个原因。",
},
],
});
console.log(response.model);
console.log(response.choices[0].message.content);如何读取响应
智能路由响应仍然遵循熟悉的聊天补全结构:
{
"id": "chatcmpl-example",
"object": "chat.completion",
"created": 1773187200,
"model": "provider/model-selected-at-runtime",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "向量数据库存储嵌入向量,使语义搜索能够高效检索相似内容。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 17,
"completion_tokens": 18,
"total_tokens": 35
}
}model 字段是生产环境中首先要记录的内容。它告诉你实际处理请求的路由模型,这对调试、支出分析以及决定是否继续使用智能路由或将工作负载切换到固定模型非常有用。智能路由 vs 固定模型
| 场景 | evolink Smart router | 固定模型 ID |
|---|---|---|
| 早期原型开发 | 非常适合 | 通常不必要 |
| 混合工作负载 | 非常适合 | 可能在运营上变得复杂 |
| 具有严格 QA 的稳定生产路径 | 可能,但需仔细验证 | 通常更好 |
| 按用例调整成本 | 良好起点 | 一旦知道获胜模型会更好 |
| 提供商故障转移策略 | 更容易集中化 | 你在应用代码中管理更多逻辑 |
通常最具扩展性的模式很简单:
- 在工作负载仍在变化时从
evolink Smart router开始。 - 记录路由的
model值并比较成本、延迟和输出质量。 - 为需要更严格运营可预测性的流程固定模型。
账户特定内容
原始草稿包含几个产品声明,在没有与你的账户或官方文档绑定的已验证来源的情况下,不应作为硬性事实发布。在发布外部承诺之前,将这些视为需要确认的项目:
evolink Smart router的确切公开模型标识符- 可用路由池的确切大小
- 任何关于"无路由费用"的承诺
- 任何与直接供应商相比的百分比折扣声明
- SLA 声明,如
99.9% 正常运行时间 - 通过智能路由为每个路由模型保证的高级功能
如果你希望这篇文章以后更偏向销售,干净的方法是仅在这些项目记录在第一方定价页面、产品页面或官方 API 文档中后添加它们。
上线前的生产检查清单
| 检查项 | 验证原因 |
|---|---|
| 确认路由模型 ID | 防止占位符代码的复制粘贴错误 |
测试响应 model 字段 | 确认路由模型可见性以便观察 |
| 在真实提示上比较成本 | 有效定价取决于所选模型和工作负载形状 |
| 按请求类型测量延迟 | 智能路由仅在匹配面向用户的 SLA 时才有用 |
| 决定何时固定模型 | 某些流程需要确定性输出或更窄的 QA 覆盖范围 |
下一步
一旦你的第一个请求成功,最高价值的后续工作不是更多示例代码,而是监控。
- 记录
response.model - 按功能或路由存储 token 使用量
- 将智能路由流量与一个固定模型基线进行比较
- 查看 EvoLink 模型目录 中的可用固定模型
这为你提供了决定网关路径是否正在提高实际工作负载的成本效率和生产可靠性所需的数据。
常见问题
evolink Smart router 与选择固定模型相同吗?
evolink Smart router 将该决策保留在网关层。我需要不同的 SDK 来使用 evolink Smart router 吗?
不需要。根据代码仓库的现有示例,集成模式保持 OpenAI 兼容。你主要更改基础 URL 和模型标识符。
我在哪里找到正确的 Smart router 模型 ID?
在发布或交付复制粘贴代码之前,在你的 EvoLink 控制面板或官方文档中确认。原始草稿不包含本地验证的标识符。
我应该在 evolink Smart router 上启动生产流量吗?
是的,如果你的工作负载仍在演变,并且你想要一个网关入口点。对于严格控制的流程,在完全推出之前将其与固定模型进行比较。
集成后我应该首先记录什么?
response.model、延迟、token 使用量和触发请求的功能名称。这四个字段通常可以解释大多数路由和成本问题。智能路由保证更低的成本吗?
不是自动的。它可以提高有效成本,但结果取决于你的提示、所选的下游模型和账户配置。
我应该何时从 Smart router 切换到固定模型?
当一个工作负载在质量、延迟或成本上有明确的赢家,并且你想要更严格的 QA 和更可预测的生产行为时切换。


