HappyHorse 1.0 próximamenteMás información

Wan 2.6 API

Convierte ideas, guiones o imágenes estáticas en clips cinematográficos con Wan 2.6 API, optimizado para contenido rápido en redes sociales y flujos de trabajo de creadores.

Precio: $0.075 - 0.125(~ 5.1 - 8.52 credits) per second of video

Máxima estabilidad con 99.9% de disponibilidad garantizada. Recomendado para producción.

Todas las versiones usan el mismo endpoint API. Solo cambia el parámetro model.

0 (suggested: 2,000)
5s
2s15s

Click Generate to see preview

Historial

Máx. 20 elementos

0 ejecutando · 0 completado

Tu historial de generación aparecerá aquí

Wan 2.6 API para vídeo corto cinematográfico

Usa Wan 2.6 API para pasar de texto o imágenes a clips multi-plano 1080p de hasta 15 segundos con salida de audio según la documentación actual de las rutas, listos para TikTok, Reels, YouTube Shorts y creativos publicitarios, sin tocar un editor de vídeo.

Wan 2.6 AI video generation showcase of product category feature 1

Pricing

WAN 2.6 Text to Video
Video Generation
quality:720p
Price:
$0.075/ second
(5.1 Credits)
WAN 2.6 Text to Video
Video Generation
quality:1080p
Price:
$0.125/ second
(8.517 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Lo que puedes hacer con Wan 2.6 API

El último punto de entrada cinematográfico text-to-video

Wan 2.6 API es el último nivel cinematográfico de la familia Wan — creado para escenas narrativas que necesitan hasta 15 segundos de movimiento multi-plano (2-15 s para texto/imagen, 2-10 s para vídeo de referencia), no solo un único beat estático. Escribe un guion breve o un brief de escena y el generador de vídeo IA Wan 2.6 gestiona el encuadre, los movimientos de cámara, las transiciones y la salida de audio juntos, para que la salida se lea como un shot list planificado en lugar de un render puntual. Este es el punto de entrada que usan los equipos cuando el brief se parece más a una campaña de marca que a un clip UGC diario.

Text to video showcase of AI video generation product category feature 2

Imagen y referencia a vídeo

Con Wan 2.6 API puedes partir de una imagen existente o un vídeo de referencia y extenderlo a una escena en movimiento que mantenga el mismo personaje, estilo o aspecto de producto. Es ideal cuando ya tienes visuales de marca o una hero shot y quieres animarla para contenido social dinámico sin volver a rodar, manteniendo colores, outfits y encuadre consistentes entre múltiples clips.

Image to video showcase of AI video generation product category feature 3

Narración multi-plano para redes sociales

Wan 2.6 API está construido para vídeos cortos con historia, no para tomas sueltas aleatorias. Puedes describir varios beats en un solo prompt y el modelo genera una secuencia multi-plano de hasta 15 segundos (2-15 s para entradas de texto/imagen) con movimiento y física coherentes. Esto facilita crear formatos de tendencia, clips explainer al estilo UGC y anuncios narrativos que se sienten planeados en lugar de cosidos a partir de escenas no relacionadas.

Multi shot storytelling showcase of AI video generation product category feature 4

Por qué elegir Wan 2.6 API para tus vídeos

Wan 2.6 API te ayuda a crear vídeos sociales consistentes y de alto impacto sin estudio, sin habilidades de edición y sin un gran presupuesto.

Calidad cinematográfica sin molestias de producción

Wan 2.6 API te da vídeos cortos nítidos en 1080p con movimiento, iluminación y física realistas, así que tu contenido se parece más a un rodaje profesional que a una plantilla rápida. En lugar de coordinar cámaras, actores y localizaciones, describes las escenas una vez y dejas que el modelo gestione animación, timing y audio, liberándote para testear más ideas por semana.

Iteración premium para campañas narrativas

Wan 2.6 está construido para el ciclo de campaña — los momentos en los que quieres salida cinematográfica premium que justifique un presupuesto de marca. Puedes iterar conceptos multi-plano, intercambiar ganchos o escenas entre versiones y usar Wan 2.6 Flash para pasadas de A/B de alto volumen antes de comprometer el nivel estándar al hero clip final. La mezcla de variantes estándar y Flash permite que un solo brief de campaña cubra tanto exploración como entrega final sin salir de la familia Wan 2.6.

Historias de marca y personaje consistentes

Wan 2.6 API ayuda a mantener tus personajes, productos y mundos consistentes entre docenas de clips, lo cual es difícil con assets de stock puntuales. Reutilizando prompts y referencias, puedes contar historias continuas sobre la misma mascota, influencer o línea de producto, haciendo que tu feed se sienta como un universo conectado en lugar de una colección aleatoria de vídeos.

Cómo usar Wan 2.6 API paso a paso

No necesitas ser desarrollador para planear buenos prompts, pero Wan 2.6 API facilita a los equipos integrar la generación de vídeo en productos reales.

1

1. Conecta tu cuenta de Evolink AI

Regístrate en Evolink AI, activa Wan 2.6 API en tu dashboard y obtén la API key que tu app o backend usará para peticiones de vídeo seguras.

2

2. Escribe un prompt social o elige una imagen

Escribe un brief corto como un gancho de TikTok más notas de escena o sube una imagen clave, y envíalo a través de Wan 2.6 API como text-to-video o image-to-video.

3

3. Genera, revisa y publica tu vídeo

Wan 2.6 API devuelve tu clip tras el procesamiento; lo revisas, guardas las mejores versiones y publicas directamente en tus canales sociales o los usas en anuncios.

Funciones de Wan 2.6 API diseñadas para creadores

Cada función de Wan 2.6 API está ajustada en torno a redes sociales, UGC y herramientas SaaS de vídeo, no flujos de estudio.

Salida de audio

Salida de audio junto al vídeo según la documentación actual de las rutas

Wan 2.6 API está ajustado para escenas narrativas donde el diálogo, el sonido ambiente y la banda sonora acompañan a las imágenes. Según la documentación actual de las rutas, la capa de audio se genera junto con el vídeo, así que las secuencias multi-plano más largas regresan con audio adjunto en lugar de un render silencioso aparte que requiera una segunda pasada.

Salida con historia

Clips multi-plano de hasta 15 segundos

En lugar de un único momento aleatorio, el generador de vídeo IA Wan 2.6 crea vídeos multi-plano que coinciden con la forma en que la gente realmente cuenta historias en plataformas sociales. Puedes cubrir el gancho, la demo de producto y la escena final en un solo clip, facilitando entregar un mensaje claro en los pocos segundos que tienes antes de que los espectadores hagan swipe.

r2v vídeo de referencia

Entradas de texto, imagen y vídeo de referencia (r2v)

Wan 2.6 añade vídeo de referencia (`wan2.6-r2v`) como entrada de primera clase junto a text-to-video (`wan2.6-t2v`) e image-to-video (`wan2.6-i2v`). Con vídeo de referencia puedes extraer la apariencia y la identidad visual de un personaje a partir de un clip existente y llevarlas a nuevas escenas — útil para mascotas de marca episódicas, portavoces recurrentes o cualquier campaña que necesite la misma identidad en pantalla entre múltiples rodajes sin volver a hacer casting. Ten en cuenta que la facturación de reference video sigue una lógica separada de duración de entrada más salida, con un multiplicador de calidad 1080p, así que plantéalo como una línea de presupuesto propia en lugar de agruparlo con los presupuestos estándar de text-to-video.

Controles simples

Controles amigables para creadores, sin jerga técnica

En lugar de enterrarte en ajustes complejos, Wan 2.6 API se centra en controles que los creadores realmente entienden, como ritmo, tono y sensación de cámara. Puedes ocultar parámetros técnicos dentro de tu app y exponer solo sliders o presets simples, ayudando a compañeros no técnicos a generar ideas de vídeo on-brand sin formación.

Diseño social-first

Optimizado para formatos de redes sociales

Wan 2.6 API está ajustado para formatos cortos, haciendo sencillo generar clips que se ven bien en feeds verticales y pantallas móviles. Puedes diseñar prompts alrededor de ganchos, transiciones y tomas de call-to-action, y luego reutilizarlos entre campañas y canales para construir un playbook de vídeo repetible, no experimentos puntuales.

Orquestación asíncrona

Orquestación asíncrona multi-variante para trabajo de campaña

Wan 2.6 API en Evolink AI está construido en torno a patrones de tarea asíncrona, que es lo que necesitas cuando un solo brief de campaña requiere múltiples variantes multi-plano generadas en paralelo y luego revisadas juntas. Puedes distribuir la generación de variantes entre el nivel estándar de Wan 2.6 y Wan 2.6 Flash, recoger los clips terminados en tu pipeline de revisión a medida que las tareas se completan y comprometer solo la versión hero a la publicación — en lugar de forzar a una sola cola de render a hacer tanto exploración como entrega final.

Explora la familia Wan API

Wan 2.6 es el último nivel cinematográfico con narración multi-plano y vídeo de referencia. Ve cómo Wan 2.6 encaja junto a Wan 2.5 para volumen diario de contenido y Wan Image para flujos text-to-image.

FAQ de Wan 2.6 API

Everything you need to know about the product and billing.

Wan 2.6 es el último modelo cinematográfico de generación de vídeo IA desarrollado por el equipo Tongyi Wanxiang de Alibaba, con narración multi-plano, salida de audio según la documentación actual de las rutas y clips 1080p de hasta 15 segundos a partir de texto, imágenes o referencias (2-15 s para text-to-video e image-to-video, 2-10 s para vídeo de referencia). Evolink AI proporciona Wan 2.6 API como una capa de integración ágil, facilitando a desarrolladores y creadores llamar a este potente modelo en sus apps, herramientas SaaS o flujos de trabajo sin gestionar directamente la infraestructura de Alibaba Cloud. Es ideal para desarrolladores indie que construyen funciones de vídeo, marketers que crean anuncios para TikTok/Reels y creadores que producen contenido corto rápidamente y a escala.
Alibaba liberó versiones anteriores de Wan como Wan 2.1, mientras que Wan 2.6 está documentado como un modelo accesible por API en DashScope y Model Studio de Alibaba. A fecha de abril de 2026, no hemos encontrado una fuente oficial de Alibaba que confirme Wan 2.6 como open source, así que para el estado más actual consulta los anuncios oficiales de Alibaba. Para usar Wan 2.6 hoy, puedes llamarlo vía Wan 2.6 API en Evolink AI sin gestionar directamente la infraestructura de Alibaba Cloud.
Wan 2.6 Flash es una variante más rápida de la línea de generación de vídeo Wan 2.6, optimizada para un tiempo de inferencia más corto a un coste por segundo menor. Se adapta bien a flujos de alto volumen e iterativos como el A/B testing de ganchos publicitarios sociales, generar múltiples variantes del mismo prompt o alimentar funciones de vídeo in-app donde la latencia importa más que la calidad absoluta. La Wan 2.6 API estándar es la elección correcta cuando quieres la salida cinematográfica completa, mientras que Wan 2.6 Flash es la elección correcta cuando quieres velocidad y economía unitaria.
Con el generador de vídeo IA Wan 2.6 puedes crear clips narrativos, demos de producto, explainers al estilo UGC y escenas imaginativas a partir de texto o imágenes. El modelo es especialmente fuerte en vídeos narrativos cortos de hasta 15 segundos (2-15 s para texto/imagen, 2-10 s para vídeo de referencia) con movimiento de cámara suave, salida de audio según la documentación actual de las rutas y personajes consistentes. Esto lo hace ideal para TikTok, Reels, YouTube Shorts, anuncios sociales y cualquier app donde los usuarios quieran vídeo dinámico a partir de poca entrada.
Las herramientas básicas text-to-video a menudo generan un solo plano estático con movimiento genérico y sin audio integrado, obligándote a editar y diseñar sonido después. Wan 2.6 API se centra en narración multi-plano, física más suave y salida de audio junto al vídeo según la documentación actual de las rutas, así que tus clips se sienten más como escenas planeadas que como tests de IA aleatorios. También obtienes más control sobre ritmo, punto de vista y continuidad, lo cual importa cuando intentas conseguir clics, tiempo de visualización o conversiones.
Sí, los creadores no técnicos pueden beneficiarse de Wan 2.6 API siempre que alguien monte una interfaz o herramienta simple alrededor. Una vez integrada, puedes exponer solo los campos que les importan a los creadores, como prompt, imagen de referencia, relación de aspecto y duración. A partir de ahí, simplemente escriben instrucciones como lo harían para una caption o guion, hacen clic en generar y reciben clips terminados que pueden publicar o editar ligeramente antes de publicarlos.
Wan 2.6 API es muy adecuada para anuncios sociales y campañas de marca porque equilibra calidad y velocidad. Puedes prototipar muchos conceptos visuales, ángulos y ganchos sin reservar rodajes ni motion designers, y luego promocionar las versiones que mejor funcionen. Reutilizando prompts y assets de referencia, mantienes personajes, tomas de producto y estilo de marca consistentes incluso mientras testeas distintas historias y ofertas.
El tiempo de generación depende de la duración y el tráfico, pero Wan 2.6 API está diseñada para contenido corto, así que los clips suelen estar listos en minutos en lugar de horas. Este turnaround es lo suficientemente rápido para soportar calendarios de contenido diarios, publicaciones sociales reactivas y flujos automatizados de creación de vídeo. Puedes solicitar múltiples generaciones en paralelo a través de Evolink AI para seguir el ritmo de agendas de publicación de mayor volumen.
Los mejores prompts de Wan 2.6 se leen como mini briefs de rodaje en lugar de etiquetas de una palabra. Menciona el entorno, el sujeto, el estilo de cámara y lo que sucede en orden, e incluye la emoción o el tono que quieres que sientan los espectadores. Por ejemplo, puedes describir el gancho inicial, la toma de acción principal y el frame final con call-to-action, lo que ayuda al generador de vídeo IA Wan 2.6 a producir historias más claras y atractivas para tu audiencia.
Puedes integrar Wan 2.6 API en tu SaaS, automatización o herramientas de contenido a través de Evolink AI, que gestiona el enrutamiento, escalado y monitorización por ti. Esto te permite ofrecer funciones de generación de vídeo in-app donde los usuarios escriben prompts, suben imágenes y reciben clips listos para usar sin salir de tu producto. Es una forma directa de añadir capacidades modernas de vídeo IA mientras mantienes a tu equipo de ingeniería centrado en las funciones principales.
POST
/v1/videos/generations

Create Video

WAN 2.6 Text to Video (wan2.6-text-to-video) model supports text-to-video generation with enhanced quality and longer duration options.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.6-text-to-video

Video generation model name.

Examplewan2.6-text-to-video
promptstringRequired

Text description of the video to generate.

Notes
  • Maximum 1500 characters
ExampleA majestic eagle soaring through mountain peaks at sunset, cinematic lighting
aspect_ratiostringOptionalDefault: 16:9

Video aspect ratio.

ValueDescription
16:9Landscape video (default)
9:16Portrait video
1:1Square video
4:3Standard video
3:4Portrait standard
Example16:9
qualitystringOptionalDefault: 720p

Video quality. Higher quality costs more.

ValueDescription
720pStandard quality (1.0x price)
1080pHigh quality (1.67x price)
Example720p
durationintegerOptionalDefault: 5

Duration of the generated video in seconds. Supports 2-15 seconds.

Notes
  • Range: 2-15 seconds (any integer)
  • Price is calculated as: base_price × duration × quality_multiplier
Example5
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting.

Notes
  • When enabled, AI will optimize your prompt for better video generation
  • Recommended for simple or short prompts
Exampletrue
model_params.shot_typestringOptionalDefault: single

Shot type for video generation.

ValueDescription
singleSingle continuous shot
multiMultiple camera angles/shots
Notes
  • Only effective when prompt_extend is true
Examplesingle
audio_urlstringOptional

Audio file URL. The model will use this audio to generate the video.

Notes
  • Supported format: mp3
  • Duration: 3-30 seconds
  • File size: up to 15MB
  • If audio exceeds video duration, only the first portion is used
  • If audio is shorter than video, the remaining portion will be silent
Examplehttps://example.com/audio.mp3
callback_urlstringOptional

HTTPS callback address after task completion.

Notes
  • Triggered on completion, failure, or cancellation
  • HTTPS only, no internal IPs
  • Max length: 2048 chars
  • Timeout: 10s, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.6-text-to-video",
  "prompt": "A majestic eagle soaring through mountain peaks at sunset, cinematic lighting",
  "aspect_ratio": "16:9",
  "quality": "720p",
  "duration": 10,
  "prompt_extend": true,
  "model_params": {
    "shot_type": "single"
  }
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-abc123",
  "model": "wan2.6-text-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 60
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_second",
    "credits_reserved": 10,
    "user_group": "default"
  }
}
Wan 2.6 API: Generador de vídeo IA cinematográfico | Evolink AI