
Comment utiliser evolink Smart router : Configuration en 5 minutes pour le routage unifié de modèles IA

https://api.evolink.ai/v1/chat/completions et une URL de base de https://api.evolink.ai/v1 dans plusieurs guides d'intégration. Ce tutoriel utilise ces modèles d'intégration confirmés et évite les promesses non documentées concernant la logique de routage cachée, les pools de modèles exacts ou les remises spécifiques au compte.Qu'est-ce qu'evolink Smart router
evolink Smart router est le point d'entrée de routage intelligent dans le flux de travail de l'API unifiée d'EvoLink. La valeur pratique n'est pas la "magie automatique". La valeur est que votre application peut maintenir une surface d'intégration unique pendant qu'EvoLink gère les décisions de sélection de modèles dans la couche de passerelle.- maintenir un format de requête compatible OpenAI
- réduire le basculement côté application entre fournisseurs ou familles de modèles
- inspecter le modèle routé dans la réponse API au lieu de coder en dur un modèle partout
- commencer avec un chemin de passerelle flexible avant de fixer un modèle pour les flux critiques de production
Si vous connaissez déjà le modèle exact, le profil de latence et l'objectif de coût dont vous avez besoin, un ID de modèle fixe est généralement le choix le plus propre.
Ce dont vous avez besoin avant de commencer
| Élément | Quoi préparer | Pourquoi c'est important |
|---|---|---|
| Compte EvoLink | Connectez-vous sur evolink.ai | Vous avez besoin d'accéder aux paramètres du tableau de bord et à la facturation |
| Clé API | Créez-en une dans le tableau de bord EvoLink | La passerelle utilise l'authentification Bearer token |
| URL de base | https://api.evolink.ai/v1 | Fonctionne avec les flux SDK compatibles OpenAI utilisés ailleurs dans le dépôt |
| ID de modèle Smart router | evolink/auto | Utilisez cet ID de modèle pour activer le routage intelligent via la passerelle |
Votre première requête avec curl
curl https://api.evolink.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "evolink/auto",
"messages": [
{
"role": "user",
"content": "Expliquez les bases de données vectorielles en un court paragraphe."
}
]
}'model pointe vers votre entrée de routage intelligent plutôt qu'un modèle de fournisseur fixe.Exemple Python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.evolink.ai/v1"
)
response = client.chat.completions.create(
model="evolink/auto",
messages=[
{
"role": "user",
"content": "Résumez le compromis entre latence et qualité du modèle."
}
]
)
print(response.model)
print(response.choices[0].message.content)Exemple Node.js
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.EVOLINK_API_KEY,
baseURL: "https://api.evolink.ai/v1",
});
const response = await client.chat.completions.create({
model: "evolink/auto",
messages: [
{
role: "user",
content: "Listez trois raisons pour lesquelles les équipes utilisent une passerelle IA.",
},
],
});
console.log(response.model);
console.log(response.choices[0].message.content);Comment lire la réponse
Une réponse de routeur intelligent suit toujours la structure familière de complétion de chat :
{
"id": "chatcmpl-example",
"object": "chat.completion",
"created": 1773187200,
"model": "provider/model-selected-at-runtime",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Une base de données vectorielle stocke des embeddings pour que la recherche sémantique puisse récupérer efficacement du contenu similaire."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 17,
"completion_tokens": 18,
"total_tokens": 35
}
}model est la première chose à enregistrer en production. Il vous indique quel modèle routé a réellement traité la requête, ce qui est utile pour le débogage, l'analyse des dépenses et décider si vous devez continuer à utiliser le routeur intelligent ou basculer une charge de travail vers un modèle fixe.Routeur intelligent vs modèle fixe
| Scénario | evolink Smart router | ID de modèle fixe |
|---|---|---|
| Prototypage initial | Très adapté | Généralement inutile |
| Charges de travail mixtes | Très adapté | Peut devenir opérationnellement bruyant |
| Chemin de production stable avec QA strict | Possible, mais vérifiez soigneusement | Généralement meilleur |
| Ajustement des coûts par cas d'usage | Bon point de départ | Meilleur une fois que vous connaissez le modèle gagnant |
| Stratégie de basculement de fournisseur | Plus facile à centraliser | Vous gérez plus de logique dans le code de l'application |
Le modèle qui évolue généralement le mieux est simple :
- Commencez avec
evolink Smart routerpendant que la charge de travail change encore. - Enregistrez la valeur
modelroutée et comparez coût, latence et qualité de sortie. - Fixez un modèle pour les flux qui nécessitent une prévisibilité opérationnelle plus stricte.
Ce qui reste spécifique au compte
Le brouillon original incluait plusieurs affirmations de produit qui ne devraient pas être publiées comme des faits établis sans une source vérifiée liée à votre compte ou à la documentation officielle. Traitez-les comme des éléments à confirmer avant de publier des promesses externes :
- l'identifiant de modèle public exact pour
evolink Smart router - la taille exacte du pool de routage disponible
- toute promesse concernant "aucun frais de routage"
- toute affirmation de remise en pourcentage par rapport aux fournisseurs directs
- déclarations de SLA telles que
99,9% de disponibilité - quelles capacités avancées sont garanties via le routeur intelligent pour chaque modèle routé
Si vous souhaitez que cet article devienne plus orienté vente plus tard, la manière propre est d'ajouter ces éléments uniquement après qu'ils soient documentés dans une page de tarification propriétaire, une page produit ou une documentation API officielle.
Liste de contrôle de production avant le déploiement
| Vérification | Pourquoi le vérifier |
|---|---|
| Confirmer l'ID du modèle de routeur | Empêche les erreurs de copier-coller du code d'espace réservé |
Tester le champ model de réponse | Confirme la visibilité du modèle routé pour l'observabilité |
| Comparer le coût sur des prompts réels | Le prix effectif dépend des modèles sélectionnés et de la forme de la charge de travail |
| Mesurer la latence par type de requête | Le routage intelligent n'est utile que s'il correspond à votre SLA orienté utilisateur |
| Décider quand fixer un modèle | Certains flux nécessitent une sortie déterministe ou une couverture QA plus étroite |
Prochaines étapes
Une fois que votre première requête fonctionne, le suivi le plus précieux n'est pas plus de code d'exemple. C'est l'instrumentation.
- enregistrez
response.model - stockez l'utilisation des tokens par fonctionnalité ou route
- comparez le trafic du routeur intelligent avec une ligne de base de modèle fixe
- consultez les modèles fixes disponibles dans le catalogue de modèles EvoLink
Cela vous donne les données nécessaires pour décider si le chemin de passerelle améliore l'efficacité des coûts et la fiabilité de production pour votre charge de travail réelle.
FAQ
Est-ce qu'evolink Smart router est la même chose que choisir un modèle fixe ?
evolink Smart router maintient cette décision dans la couche de passerelle.Ai-je besoin d'un SDK différent pour utiliser evolink Smart router ?
Non. D'après les exemples existants du dépôt, le modèle d'intégration reste compatible OpenAI. Vous changez principalement l'URL de base et l'identifiant de modèle.
Où puis-je trouver l'ID correct du modèle Smart router ?
Confirmez-le dans votre tableau de bord EvoLink ou la documentation officielle avant de publier ou d'expédier du code à copier-coller. Le brouillon original n'incluait pas d'identifiant vérifié localement.
Dois-je démarrer le trafic de production sur evolink Smart router ?
Oui, si votre charge de travail évolue encore et que vous voulez un point d'entrée de passerelle unique. Pour les flux strictement contrôlés, comparez-le avec un modèle fixe avant le déploiement complet.
Que dois-je enregistrer en premier après l'intégration ?
response.model, la latence, l'utilisation des tokens et le nom de la fonctionnalité qui a déclenché la requête. Ces quatre champs expliquent généralement la plupart des questions de routage et de coûts.Le routage intelligent garantit-il un coût inférieur ?
Pas automatiquement. Il peut améliorer le coût effectif, mais le résultat dépend de vos prompts, des modèles en aval sélectionnés et de la configuration du compte.
Quand dois-je passer du Smart router à un modèle fixe ?
Passez quand une charge de travail a un gagnant clair en qualité, latence ou coût et que vous voulez un QA plus strict et un comportement de production plus prévisible.


