Seedance 2.0 API — Coming SoonGet early access

Serie GPT-5.1 (API)

Acceda a la familia de modelos GPT-5.1 a través de la puerta de enlace unificada API de EvoLink. GPT-5.1 admite un contexto de 400 000, un máximo de 128 000 tokens de salida y una fecha límite de datos del 30 de septiembre de 2024. Habilite la transmisión, la llamada a funciones, las salidas estructuradas y el almacenamiento en caché de avisos cuando su cuenta y su punto final lo admitan.

Run With API
Using coding CLIs? Run GPT-5.1 via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUTCACHE READ
GPT-5.1400.0K128.0K
$1.00-20%
$1.25Official Price
$8.00-20%
$10.00Official Price
$0.104-17%
$0.125Official Price
GPT-5.1 (Beta)400.0K128.0K
$0.325-74%
$1.25Official Price
$2.60-74%
$10.00Official Price
$0.033-74%
$0.125Official Price

Pricing Note: Price unit: USD / 1M tokens

Cache Hit: Price applies to cached prompt tokens.

Two ways to run GPT-5.1 — pick the tier that matches your workload.

  • · GPT-5.1: the default tier for production reliability and predictable availability.
  • · GPT-5.1 (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Compilación con GPT-5.1 API: inteligencia lista para producción

Utilice GPT-5.1 API para obtener un rendimiento de chat confiable, flujos de trabajo que utilizan herramientas y manejo escalable de contexto largo. Integre a través de respuestas o finalización de chat, habilite la transmisión y salidas estructuradas, y fije instantáneas para la estabilidad de la versión.

Visualización GPT-5.1 API

¿Qué puede lograr GPT-5.1 API?

Análisis de contexto masivo

Maneje entradas más grandes y un historial de conversaciones más largo con la ventana de contexto de 400k de GPT-5.1 y hasta 128k tokens de salida. Esto es útil para revisar repositorios, analizar documentos extensos o realizar investigaciones de varios pasos sin una fragmentación manual excesiva.

Procesamiento de contexto grande

Razonamiento avanzado

Para problemas que requieren pensamiento de varios pasos (planificación, asistencia de codificación y apoyo a la toma de decisiones), utilice el esfuerzo de razonamiento configurable. GPT-5.1 admite esfuerzo nulo, bajo, medio y alto para que pueda equilibrar la velocidad, el costo y la profundidad.

razonamiento avanzado

Almacenamiento en caché rápido

El almacenamiento en caché de solicitudes se habilita automáticamente para solicitudes de 1024 tokens o más. Reutilice prefijos estables (indicaciones del sistema, políticas, ejemplos de pocas tomas) y elija retención en memoria o 24 horas para reducir el procesamiento repetido y mejorar el rendimiento.

Optimización de costos

Por qué los desarrolladores eligen GPT-5.1 API

GPT-5.1 es una familia de modelos con instantáneas y alias que le brindan un comportamiento de producción estable y una ruta de actualización clara.

Diseño de familia modelo.

Utilice alias orientados al chat o a la codificación, como gpt-5.1-chat-latest o gpt-5.1-codex cuando estén disponibles, manteniendo una superficie API consistente.

Flujos de trabajo prácticos de contexto largo

Una ventana de contexto de 400k con hasta 128k tokens de salida mantiene las tareas coherentes y reduce la necesidad de canales de fragmentación complejos.

Funciones API para la integración de producción

GPT-5.1 admite la transmisión, la llamada de funciones, las salidas estructuradas y el almacenamiento en caché de avisos, por lo que el modelo se adapta a los sistemas de producción reales.

Cómo integrar GPT-5.1 API

Comience a usar GPT-5.1 a través de la puerta de enlace unificada de EvoLink en tres pasos.

1

Paso 1: obtenga su clave API

Cree una cuenta, genere una clave API y configure sus variables de entorno. El acceso a variantes específicas de GPT-5.1 puede depender del nivel de uso y de la verificación de la organización.

2

Paso 2: configura tu cliente

Utilice sus llamadas SDK o directas HTTP preferidas. Establezca la base URL en el punto final de su puerta de enlace y elija Respuestas o Finalizaciones de chat. Pase el alias del modelo al que desea dirigirse (por ejemplo, gpt-5.1 o gpt-5.1-chat-latest).

3

Paso 3: Comience a construir

Envíe primero una pequeña solicitud de prueba y luego agregue transmisión, llamada de funciones, salidas estructuradas o almacenamiento en caché. Supervise los campos de uso de respuesta como Prompt_tokens_details.cached_tokens para validar el comportamiento.

Capacidades principales API

Especificaciones técnicas para GPT-5.1 API

Capacidad

Contexto largo (cuando esté disponible)

GPT-5.1 enumera una ventana de contexto de 400k y hasta 128k tokens de salida, con una fecha límite de datos del 30 de septiembre de 2024.

Eficiencia

Almacenamiento en caché rápido (cuando sea compatible)

Almacenamiento en caché automático para mensajes >= 1024 tokens con coincidencia exacta de prefijo. Utilice fast_cache_retention in_memory o 24h.

Inteligencia

Variantes orientadas al razonamiento

El esfuerzo de razonamiento configurable (ninguno, bajo, medio, alto) le permite compensar la velocidad, el costo y la profundidad por solicitud.

Integración

Llamada de función/herramienta

Defina herramientas de esquema JSON y enrute llamadas estructuradas a sus sistemas a través de puntos finales como Respuestas y Finalizaciones de chat.

Fiabilidad

Productos estructurados (cuando estén disponibles)

Las respuestas JSON adherentes al esquema son compatibles con GPT-5.1; Confirme la compatibilidad del punto final con formatos de salida estructurados.

Actuación

Transmisión

Transmita tokens parciales para interfaces de usuario responsivas a través de puntos finales compatibles, como Responses o Realtime.

GPT-5.1 API - Preguntas frecuentes

Everything you need to know about the product and billing.

Los documentos del modelo de OpenAI enumeran una ventana de contexto de 400 000 tokens y hasta 128 000 tokens de salida máximos para GPT-5.1, con una fecha límite de datos del 30 de septiembre de 2024. Utilice su panel y documentos modelo como fuente de verdad para su cuenta.
El almacenamiento en caché de mensajes es automático para mensajes de 1024 tokens o más y solo funciona en coincidencias de prefijos exactos. Establezca Prompt_cache_retention en in_memory o 24 h. Los tokens almacenados en caché aparecen en use.prompt_tokens_details.cached_tokens y los cachés tienen como ámbito su organización.
GPT-5.1 admite valores de razonamiento.esfuerzo de ninguno (predeterminado), bajo, medio y alto. Utilice un menor esfuerzo para tareas sensibles a la latencia y un mayor esfuerzo para un razonamiento más profundo de varios pasos.
Sí. GPT-5.1 admite transmisión, llamada de funciones y salidas estructuradas. Está disponible en terminales como Respuestas, Finalizaciones de chat, Tiempo real, Asistentes y Por lotes, sujeto a la disponibilidad de la cuenta y del terminal.
Los accesos a la caché requieren coincidencias exactas de prefijos. Coloque instrucciones y ejemplos estáticos al principio, mueva los datos dinámicos del usuario al final y mantenga idénticas las definiciones de las herramientas. También puede utilizar Prompt_cache_key para influir en el enrutamiento y mejorar las tasas de aciertos de caché para prefijos compartidos.
Las salidas estructuradas exigen el cumplimiento del esquema JSON y GPT-5.1 enumera las salidas estructuradas como compatibles. La disponibilidad aún puede depender del punto final, así que confirme la compatibilidad en los documentos del modelo de su cuenta.
Utilice ID de modelo de instantánea para fijar una versión específica y evite depender del alias más reciente si necesita una coherencia estricta. La página del modelo GPT-5.1 enumera los ID de instantáneas, como gpt-5.1-2025-11-13.
OpenAI enumera los precios de GPT-5.1 por 1 millón de tokens para entrada, entrada en caché y salida (por ejemplo: $1,25 / $0,125 / $10,00). Los precios reales hasta EvoLink pueden variar según la ruta, los planes y los descuentos, así que utilice siempre la tabla de precios y los datos de uso/facturación de su panel como fuente de verdad.