evolink Smart router 怎么用?5分钟完成统一AI模型路由配置(2026)
教程

evolink Smart router 怎么用?5分钟完成统一AI模型路由配置(2026)

EvoLink Team
EvoLink Team
Product Team
2026年3月11日
9 分钟阅读
截至 2026 年 3 月 11 日,代码仓库确认 EvoLink 在 https://api.evolink.ai/v1/chat/completions 提供 OpenAI 兼容的聊天补全端点,基础 URL 为 https://api.evolink.ai/v1,这在多个集成指南中得到验证。本教程使用这些已确认的集成模式,避免未经验证的路由逻辑、模型池或账户折扣承诺。
evolink Smart router 是 EvoLink 统一 API 工作流中的智能路由入口点。它的实际价值不是"自动魔法",而是让你的应用保持单一集成接口,同时由 EvoLink 在网关层处理模型选择决策。
适用场景
  • 保持单一 OpenAI 兼容请求格式
  • 减少应用层在提供商或模型系列之间的切换
  • 在 API 响应中查看路由的模型,而不是到处硬编码一个模型
  • 在为生产关键流程固定模型之前,先使用灵活的网关路径

如果你已经明确知道所需的确切模型、延迟配置和成本目标,固定模型 ID 通常是更简洁的选择。

开始前的准备

项目准备内容重要性说明
EvoLink 账户evolink.ai 登录需要访问控制面板设置和账单
API 密钥在 EvoLink 控制面板创建网关使用 Bearer token 认证
基础 URLhttps://api.evolink.ai/v1与代码仓库中其他 OpenAI 兼容 SDK 流程配合使用
Smart router 模型 IDevolink/auto使用此模型 ID 通过网关启用智能路由

第一个 curl 请求

curl https://api.evolink.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "evolink/auto",
    "messages": [
      {
        "role": "user",
        "content": "用一段话解释向量数据库。"
      }
    ]
  }'
此请求使用与普通 OpenAI 兼容聊天补全调用相同的格式。主要区别在于 model 字段指向你的智能路由入口,而不是固定的提供商模型。

Python 示例

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.evolink.ai/v1"
)

response = client.chat.completions.create(
    model="evolink/auto",
    messages=[
        {
            "role": "user",
            "content": "总结延迟和模型质量之间的权衡。"
        }
    ]
)

print(response.model)
print(response.choices[0].message.content)

Node.js 示例

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.EVOLINK_API_KEY,
  baseURL: "https://api.evolink.ai/v1",
});

const response = await client.chat.completions.create({
  model: "evolink/auto",
  messages: [
    {
      role: "user",
      content: "列出团队使用 AI 网关的三个原因。",
    },
  ],
});

console.log(response.model);
console.log(response.choices[0].message.content);

如何读取响应

智能路由响应仍然遵循熟悉的聊天补全结构:

{
  "id": "chatcmpl-example",
  "object": "chat.completion",
  "created": 1773187200,
  "model": "provider/model-selected-at-runtime",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "向量数据库存储嵌入向量,使语义搜索能够高效检索相似内容。"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 17,
    "completion_tokens": 18,
    "total_tokens": 35
  }
}
model 字段是生产环境中首先要记录的内容。它告诉你实际处理请求的路由模型,这对调试、支出分析以及决定是否继续使用智能路由或将工作负载切换到固定模型非常有用。

智能路由 vs 固定模型

场景evolink Smart router固定模型 ID
早期原型开发非常适合通常不必要
混合工作负载非常适合可能在运营上变得复杂
具有严格 QA 的稳定生产路径可能,但需仔细验证通常更好
按用例调整成本良好起点一旦知道获胜模型会更好
提供商故障转移策略更容易集中化你在应用代码中管理更多逻辑

通常最具扩展性的模式很简单:

  1. 在工作负载仍在变化时从 evolink Smart router 开始。
  2. 记录路由的 model 值并比较成本、延迟和输出质量。
  3. 为需要更严格运营可预测性的流程固定模型。

账户特定内容

原始草稿包含几个产品声明,在没有与你的账户或官方文档绑定的已验证来源的情况下,不应作为硬性事实发布。在发布外部承诺之前,将这些视为需要确认的项目:

  • evolink Smart router 的确切公开模型标识符
  • 可用路由池的确切大小
  • 任何关于"无路由费用"的承诺
  • 任何与直接供应商相比的百分比折扣声明
  • SLA 声明,如 99.9% 正常运行时间
  • 通过智能路由为每个路由模型保证的高级功能

如果你希望这篇文章以后更偏向销售,干净的方法是仅在这些项目记录在第一方定价页面、产品页面或官方 API 文档中后添加它们。

上线前的生产检查清单

检查项验证原因
确认路由模型 ID防止占位符代码的复制粘贴错误
测试响应 model 字段确认路由模型可见性以便观察
在真实提示上比较成本有效定价取决于所选模型和工作负载形状
按请求类型测量延迟智能路由仅在匹配面向用户的 SLA 时才有用
决定何时固定模型某些流程需要确定性输出或更窄的 QA 覆盖范围

下一步

一旦你的第一个请求成功,最高价值的后续工作不是更多示例代码,而是监控。

  • 记录 response.model
  • 按功能或路由存储 token 使用量
  • 将智能路由流量与一个固定模型基线进行比较
  • 查看 EvoLink 模型目录 中的可用固定模型

这为你提供了决定网关路径是否正在提高实际工作负载的成本效率和生产可靠性所需的数据。

常见问题

不。固定模型 ID 将选择决策保留在应用配置中。evolink Smart router 将该决策保留在网关层。

不需要。根据代码仓库的现有示例,集成模式保持 OpenAI 兼容。你主要更改基础 URL 和模型标识符。

我在哪里找到正确的 Smart router 模型 ID?

在发布或交付复制粘贴代码之前,在你的 EvoLink 控制面板或官方文档中确认。原始草稿不包含本地验证的标识符。

是的,如果你的工作负载仍在演变,并且你想要一个网关入口点。对于严格控制的流程,在完全推出之前将其与固定模型进行比较。

集成后我应该首先记录什么?

记录 response.model、延迟、token 使用量和触发请求的功能名称。这四个字段通常可以解释大多数路由和成本问题。

智能路由保证更低的成本吗?

不是自动的。它可以提高有效成本,但结果取决于你的提示、所选的下游模型和账户配置。

我应该何时从 Smart router 切换到固定模型?

当一个工作负载在质量、延迟或成本上有明确的赢家,并且你想要更严格的 QA 和更可预测的生产行为时切换。

准备好把 AI 成本降低 89% 吗?

现在就开始使用 EvoLink,体验智能 API 路由的强大能力。