
Guía de integración de OpenCode: cómo acceder a Claude 4.5, GPT-5.2 y Gemini 3 Pro a través de EvoLink API (2026)

Introducción: La nueva era de la IA basada en terminales
En el panorama en rápida evolución de 2026, la terminal del desarrollador se ha transformado de una simple línea de comando a un sofisticado centro de comando para Inteligencia Artificial. Se acabaron los días de cambio de contexto entre su IDE, un chatbot basado en navegador y la documentación de API. Hoy en día, los desarrolladores más eficientes están integrando agentes de IA directamente en sus flujos de trabajo CLI.
Parte 1: Los componentes de su pila de IA
¿Qué es OpenCode?
-
Chatea con tu código base usando lenguaje natural.
-
Ejecutar comandos de terminal de forma autónoma (con permiso).
-
Edite archivos en toda la estructura de su proyecto.
-
Depurar errores leyendo los seguimientos de la pila directamente desde la salida.

¿Qué es EvoLink?
-
Acceso unificado: Una clave API le brinda acceso a los modelos OpenAI, Anthropic, Google, Alibaba y ByteDance.
-
Eficiencia de costos: a través del Enrutamiento inteligente, EvoLink enruta automáticamente las solicitudes al proveedor más rentable para un modelo específico, lo que ofrece ahorros del 20 al 70 % en comparación con el uso directo del proveedor.
-
Confiabilidad: Con una arquitectura de tareas asincrónicas y conmutación por error automática, EvoLink garantiza un tiempo de actividad del 99,9 %, lo que garantiza que su agente de codificación nunca se "cuelga" durante una sesión de depuración crítica.
Parte 2: ¿Por qué integrar OpenCode con EvoLink?
La integración de OpenCode y EvoLink representa el "principio del rascacielos" del desarrollo de software: construir sobre bases sólidas para alcanzar nuevas alturas.
-
Model Agility: Puede pasar de usar Claude 4.5 Opus para escribir clases complejas a Gemini 3 Pro para analizar una documentación en PDF de 500 páginas sin cambiar su configuración o claves API.
-
Migración de código cero: EvoLink es totalmente compatible con el formato API OpenAI. Esto significa que OpenCode "piensa" que está hablando con un proveedor estándar, mientras que EvoLink maneja el enrutamiento complejo en segundo plano.
-
Flujo de información de alta densidad: Al conectar la capacidad de OpenCode para leer archivos locales con el acceso de EvoLink a modelos de alto contexto, puede introducir repositorios completos en la ventana contextual para su análisis.

Parte 3: Comprensión de los tres modelos potentes (edición 2026)

1. Claude 4.5 (Soneto y Opus) - El arquitecto de codificación
-
Ideal para: Escribir código limpio y fácil de mantener, refactorización y planificación arquitectónica.
-
Las estadísticas: Claude 4.5 Opus tiene la corona en la tabla de clasificación SWE-bench Verified con una puntuación de 80,9%, lo que significa que resuelve problemas de GitHub del mundo real mejor que cualquier otro modelo.
-
Por qué usarlo en OpenCode: Produce la estructura de código más "humana" y es menos propenso a alucinar bibliotecas inexistentes. Se destaca por seguir instrucciones complejas de varios pasos.
2. GPT-5.2 - El motor de razonamiento
-
Mejor para: Lógica compleja, algoritmos matemáticos y "pensar" errores oscuros.
-
Las estadísticas: GPT-5.2 logra un 100 % perfecto en el punto de referencia AIME 2025 (matemáticas) y un 52,9 % en ARC-AGI-2, superando significativamente a sus competidores en razonamiento abstracto.
-
Por qué usarlo en OpenCode: Cuando estás atascado en un error lógico que desafía toda explicación, o necesitas generar expresiones regulares complejas o consultas SQL, GPT-5.2 es la mejor opción.
3. Gemini 3 Pro: el rey contextual y multimodal
-
Mejor para: analizar bases de código masivas, leer imágenes de documentación e iteraciones de alta velocidad.
-
Las estadísticas: Presenta una enorme ventana de contexto de 1 millón de tokens y una velocidad líder en la industria (aproximadamente 180 tokens/segundo).
-
Por qué usarlo en OpenCode: Use Gemini 3 Pro cuando necesite introducir todo el directorio de su proyecto en el mensaje para verificar la coherencia global. También es la opción más rentable para tareas de gran volumen.
| Característica | Claude 4.5 Opus | GPT-5.2 | Gemini 3 Pro |
|---|---|---|---|
| Fuerza primaria | Código Calidad y Seguridad | Lógica y Razonamiento | Contexto y velocidad |
| Ventana de contexto | 200.000 fichas | Fichas de 400.000 | 1 millón de fichas |
| Puntuación de banco SWE | 80,9% (Líder) | 80,0% | 76,2% |
| Mejor para | Refactorización, nuevas funciones | Depuración difícil, Matemáticas | Documentación, Grandes Repos |
Parte 4: Guía de integración paso a paso
Esta guía asume que está trabajando en un entorno similar a Unix (macOS/Linux) o WSL para Windows.
Requisitos previos
-
Emulador de terminal: iTerm2 (macOS), Windows Terminal o Hyper.
-
EvoLink Cuenta: Una cuenta válida en evolink.ai.
-
Git: Instalado en su máquina.
Paso 1: Instalar OpenCode
Si aún no ha instalado OpenCode, ejecute el siguiente comando en su terminal. Este script detecta automáticamente su sistema operativo e instala los binarios necesarios.
curl -fsSL https://raw.githubusercontent.com/opencode-ai/opencode/main/install | bashopencode --versionPaso 2: Obtenga su clave API EvoLink
-
Inicie sesión en su EvoLink Panel.
-
Navegue a la sección Claves API.
-
Haga clic en Crear nueva clave.
-
Copie la cadena de clave (comienza con
sk-evo...). No compartas esta clave.
Paso 2.5: Inicializar el proveedor OpenCode
Antes de configurar el archivo JSON, debe registrar EvoLink como proveedor personalizado en el administrador de credenciales de OpenCode. Esta es una configuración única que permite a OpenCode reconocer EvoLink como un proveedor válido.
- Inicie OpenCode por primera vez:
opencode- Cuando se inicie OpenCode, le pedirá que conecte un proveedor. En la lista de proveedores, desplácese hacia abajo y seleccione other (puede buscarlo escribiendo).

- Ingrese el ID del proveedor: Cuando se le solicite, escriba
evolinkcomo identificador del proveedor. Esto crea una entrada de proveedor personalizada en el sistema de OpenCode.

- Ingrese la clave API: Puede ingresar cualquier valor de marcador de posición aquí (por ejemplo,
adminotemp). Se hará referencia a la clave API EvoLink real a través del archivo de configuración en el siguiente paso.

evolink en el administrador de credenciales local de OpenCode. El archivo de configuración que crearemos a continuación proporcionará los detalles de conexión reales.Paso 3: Configurar OpenCode
- Ubicar/Crear directorio de configuración:
-
macOS/Linux:
~/.config/opencode/ -
Windows:
%AppData%\opencode\
Win + R, pegue %AppData%\opencode\ y presione Enter para abrir el directorio:
- Crea el archivo
opencode.json:
mkdir -p ~/.config/opencode
nano ~/.config/opencode/opencode.json- Pegue la siguiente configuración:
Nota: ReemplaceYOUR_EVOLINK_API_KEYcon la clave que generó en el Paso 2.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"evolink": {
"npm": "@ai-sdk/anthropic",
"name": "Evolink",
"options": {
"baseURL": "https://code.evolink.ai/v1",
"apiKey": "your-evolink-api-key"
},
"models": {
"claude-opus-4-5-20251101": {
"name": "Claude-4.5-Opus"
},
"claude-sonnet-4-5-20250929": {
"name": "Claude-4.5-Sonnet"
},
"claude-haiku-4-5-20251001": {
"name": "Claude-4.5-Haiku"
}
}
}
}
}provider en "openai" en el JSON. Esto se debe a que EvoLink traduce el formato API OpenAI a los formatos nativos de Anthropic y Google sin problemas. Este "truco" permite a OpenCode comunicarse con modelos que no son GPT utilizando protocolos estándar.Paso 4: Verificar la conectividad
Inicie OpenCode en su terminal:
opencodeEn el cuadro de entrada, escriba:
"Hello, which model are you and who is your provider?"
Si se configura correctamente, la respuesta debería confirmar el modelo que definiste (por ejemplo, "Soy GPT-5.2...").
Parte 5: Configuración avanzada y cambio de modelo
Una vez dentro de OpenCode, no estás encerrado en un solo modelo. Puede cambiar de modelo dinámicamente según la tarea en cuestión.
Cambio de modelos mediante CLI
Puede especificar el modelo directamente al iniciar la herramienta:
# For a quick logic check
opencode --model gpt-5.2
# For a heavy coding session
opencode --model claude-3-5-sonnet-20240620Cambio de modelo a través de TUI
/models para ver las configuraciones disponibles.
-
Escriba
/modelsy presione Entrar. -
Seleccione el ID del modelo de su lista
opencode.json. -
Presione Enter para cambiar de contexto inmediatamente.
Parte 6: Mejores prácticas para el desarrollo de alta densidad
Para aprovechar verdaderamente el potencial "rascacielos" de esta integración, siga estas mejores prácticas:
1. La estrategia del contexto
-
Al usar Gemini 3 Pro: Siéntete libre de ejecutar comandos como
/add src/para agregar toda tu carpeta de origen. La ventana contextual de 1M de Gemini puede manejar la carga, lo que le permite comprender el gráfico de dependencia completo de su proyecto. -
Al usar GPT-5.2: Sea más selectivo. Agregue solo los archivos relevantes (
/add src/utils/helper.ts) para garantizar que el motor de razonamiento se centre estrictamente en la lógica en cuestión sin distracciones.
2. Enrutamiento inteligente para el control de costos
- Configure una entrada
gpt-4o-miniogemini-3-flashen suopencode.jsonpara escribir pruebas unitarias simples o comentarios. Estos modelos cuestan una fracción de los modelos fronterizos, pero son suficientes para tareas básicas.
3. La seguridad es lo primero
opencode.json en un repositorio público. Agregue .config/opencode/ a su archivo .gitignore global.echo ".config/opencode/" >> ~/.gitignore_global
git config --global core.excludesfile ~/.gitignore_globalParte 7: Solución de problemas comunes
- Solución: Verifique su clave API EvoLink. Asegúrese de haber copiado la cadena completa
sk-evo.... Además, verifique que tenga un saldo de crédito positivo en su cuenta EvoLink.
- Solución: Asegúrese de que el nombre
modelen su JSON coincida exactamente con los ID de modelo admitidos por EvoLink (por ejemplo,gpt-4o,claude-3-opus-20240229). Consulte la Lista de modelos de EvoLink para conocer las cadenas de identificación exactas.
- Solución: Si bien EvoLink es rápido, la latencia de la red varía. Comprueba si estás utilizando un modelo muy grande (como Opus) para una consulta sencilla. Cambie a
gpt-5.2ogemini-3-flashpara interacciones más rápidas.
Conclusión
-
Empiece a codificar con el futuro, hoy.


