HappyHorse 1.0 arrive bientôtEn savoir plus

Wan 2.6 API

Transformez des idées, des scripts ou des images statiques en clips cinématiques avec Wan 2.6 API, optimisé pour le contenu social rapide et les workflows de créateurs.

Prix: $0.075 - 0.125(~ 5.1 - 8.52 credits) per second of video

Stabilité maximale avec une disponibilité garantie de 99,9 %. Recommandé pour la production.

Le même endpoint API est utilisé pour toutes les versions. Seul le paramètre model change.

0 (suggested: 2,000)
5s
2s15s

Click Generate to see preview

Historique

Max 20 éléments

0 en cours · 0 terminé

Votre historique de génération apparaîtra ici

Wan 2.6 API pour vidéo courte cinématique

Utilisez Wan 2.6 API pour passer du texte ou des images à des clips multi-plans 1080p (jusqu'à 15 secondes) avec sortie audio selon la documentation actuelle des routes, prêts pour TikTok, Reels, YouTube Shorts et créations publicitaires, sans toucher à un éditeur vidéo.

Wan 2.6 AI video generation showcase of product category feature 1

Pricing

WAN 2.6 Text to Video
Video Generation
quality:720p
Price:
$0.075/ second
(5.1 Credits)
WAN 2.6 Text to Video
Video Generation
quality:1080p
Price:
$0.125/ second
(8.517 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Ce que vous pouvez faire avec Wan 2.6 API

Dernier point d'entrée texte vers vidéo cinématique

Wan 2.6 API est le dernier niveau cinématique de la famille Wan — construit pour des scènes narratives qui ont besoin de jusqu'à 15 secondes de mouvement multi-plans (2–15 s pour texte/image, 2–10 s pour vidéo de référence), pas seulement d'un seul moment statique. Tapez un script court ou un brief de scène et le générateur de vidéo IA Wan 2.6 gère cadrage, mouvements de caméra, transitions et sortie audio ensemble, afin que la sortie se lise comme une liste de plans planifiée plutôt qu'un rendu unique. C'est le point d'entrée que les équipes utilisent quand le brief est plus proche d'une campagne de marque qu'un clip UGC quotidien.

Text to video showcase of AI video generation product category feature 2

Image et référence vers vidéo

Avec Wan 2.6 API vous pouvez partir d'une image existante ou d'une vidéo de référence et l'étendre en une scène en mouvement qui conserve le même personnage, style ou apparence produit. C'est idéal quand vous avez déjà des visuels de marque ou un plan hero et que vous voulez l'animer en contenu social dynamique sans retourner, tout en gardant couleurs, tenues et cadrages cohérents sur plusieurs clips.

Image to video showcase of AI video generation product category feature 3

Narration multi-plans pour les réseaux sociaux

Wan 2.6 API est conçu pour des vidéos courtes et narratives plutôt que des plans ponctuels aléatoires. Vous pouvez décrire plusieurs beats dans un seul prompt, et le modèle génère une séquence multi-plans pouvant aller jusqu'à 15 secondes (2–15 s pour les entrées texte/image), avec un mouvement et une physique cohérents. Cela permet de créer facilement des formats tendance, des clips d'explication de style UGC et des publicités narratives qui semblent planifiées au lieu d'être assemblées à partir de scènes sans rapport.

Multi shot storytelling showcase of AI video generation product category feature 4

Pourquoi choisir Wan 2.6 API pour vos vidéos

Wan 2.6 API vous aide à créer des vidéos sociales cohérentes et à fort impact sans studio, sans compétences d'édition et sans gros budget.

Qualité cinématique sans contraintes de production

Wan 2.6 API vous donne des vidéos courtes nettes en 1080p avec mouvement réaliste, éclairage et physique, de sorte que votre contenu ressemble davantage à un tournage professionnel qu'à un template rapide. Au lieu de coordonner caméras, acteurs et lieux, vous décrivez les scènes une fois et laissez le modèle gérer animation, timing et audio, ce qui vous libère pour tester plus d'idées par semaine.

Itération premium pour les campagnes narratives

Wan 2.6 est construit pour le cycle de campagne — les moments où vous voulez une sortie cinématique premium qui justifie un budget de marque. Vous pouvez itérer des concepts multi-plans, échanger hooks ou scènes entre versions, et utiliser Wan 2.6 Flash pour des passes A/B à haut volume avant de confier le niveau standard au clip hero final. Le mélange des variantes standard et Flash permet à un brief de campagne de couvrir à la fois exploration et livraison finale sans quitter la famille Wan 2.6.

Histoires cohérentes de marque et de personnages

Wan 2.6 API aide à garder vos personnages, produits et univers cohérents sur des dizaines de clips, ce qui est difficile à faire avec des assets stock ponctuels. En réutilisant prompts et références, vous pouvez raconter des histoires continues autour de la même mascotte, influenceur ou gamme de produits, rendant votre feed comme un univers connecté plutôt qu'une collection aléatoire de vidéos.

Comment utiliser Wan 2.6 API étape par étape

Vous n'avez pas besoin d'être développeur pour planifier de bons prompts, mais Wan 2.6 API facilite l'intégration de la génération vidéo dans des produits réels par les équipes.

1

1. Connectez votre compte Evolink AI

Inscrivez-vous sur Evolink AI, activez Wan 2.6 API dans votre tableau de bord et récupérez la clé API que votre application ou backend utilisera pour les requêtes vidéo sécurisées.

2

2. Rédigez un prompt de style social ou choisissez une image

Écrivez un brief court comme un hook TikTok avec des notes de scène ou téléversez un visuel clé, puis envoyez-le via Wan 2.6 API en mode text-to-video ou image-to-video.

3

3. Générez, vérifiez et publiez votre vidéo

Wan 2.6 API retourne votre clip après traitement ; vous le vérifiez, sauvegardez les meilleures versions, et publiez directement sur vos canaux sociaux ou les utilisez dans des publicités.

Fonctionnalités Wan 2.6 API conçues pour les créateurs

Chaque fonctionnalité de Wan 2.6 API est pensée pour les réseaux sociaux, UGC et outils vidéo SaaS, pas pour les workflows studio.

Sortie audio

Sortie audio en parallèle de la vidéo selon la documentation actuelle des routes

Wan 2.6 API est optimisé pour les scènes narratives où dialogue, son ambiant et partition accompagnent les visuels. Selon la documentation actuelle des routes, la couche audio est générée en parallèle de la vidéo, de sorte que les séquences multi-plans plus longues reviennent avec audio attaché plutôt qu'un rendu silencieux séparé nécessitant une seconde passe.

Story-first output

Clips multi-plans jusqu'à 15 secondes

Au lieu d'un seul moment aléatoire, le générateur de vidéo IA Wan 2.6 crée des vidéos multi-plans qui correspondent à la façon dont les gens racontent réellement des histoires sur les plateformes sociales. Vous pouvez couvrir le hook, la démo produit et la scène finale dans un seul clip, ce qui rend beaucoup plus facile de livrer un message clair dans les quelques secondes dont vous disposez avant que les spectateurs ne scrollent.

r2v reference video

Entrées texte, image et vidéo de référence (r2v)

Wan 2.6 ajoute la vidéo de référence (`wan2.6-r2v`) comme entrée de première classe aux côtés de text-to-video (`wan2.6-t2v`) et image-to-video (`wan2.6-i2v`). Avec la vidéo de référence, vous pouvez extraire l'apparence et l'identité visuelle d'un personnage d'un clip existant et les porter dans de nouvelles scènes — utile pour les mascottes de marque épisodiques, les porte-paroles récurrents ou toute campagne nécessitant la même identité à l'écran sur plusieurs tournages sans recasting. Notez que la facturation de la vidéo de référence suit une logique séparée de durée d'entrée plus sortie, avec un multiplicateur de qualité 1080p, donc planifiez-la comme sa propre ligne budgétaire plutôt que de la regrouper avec les budgets text-to-video standard.

Contrôles simples

Contrôles créateurs, pas de jargon technique

Plutôt que de vous enterrer dans des paramètres complexes, Wan 2.6 API se concentre sur les contrôles que les créateurs comprennent réellement, comme le rythme, l'ambiance et le feeling de caméra. Vous pouvez cacher les paramètres techniques dans votre application et n'exposer que des sliders simples ou des presets, aidant les coéquipiers non techniques à générer des idées vidéo on-brand sans formation.

Social-first design

Optimisé pour les formats de réseaux sociaux

Wan 2.6 API est optimisé pour les formats courts, ce qui rend simple la génération de clips qui paraissent bien sur les feeds verticaux et écrans mobiles. Vous pouvez concevoir des prompts autour de hooks, transitions et plans call-to-action, puis les réutiliser sur les campagnes et canaux pour construire un playbook vidéo reproductible, et non des expériences ponctuelles.

Orchestration async

Orchestration async multi-variantes pour le travail de campagne

Wan 2.6 API sur Evolink AI est construit autour de patterns de tâches asynchrones, ce dont vous avez besoin quand un brief de campagne nécessite plusieurs variantes multi-plans générées en parallèle puis revues ensemble. Vous pouvez éclater la génération de variantes entre le niveau standard Wan 2.6 et Wan 2.6 Flash, collecter les clips terminés dans votre pipeline de revue à mesure que les tâches se terminent, et ne confier que la version hero à la publication — au lieu de forcer une seule file de rendu à faire à la fois exploration et livraison finale.

Explorez la famille Wan API

Wan 2.6 est le dernier niveau cinématique avec narration multi-plans et vidéo de référence. Voyez comment Wan 2.6 s'intègre aux côtés de Wan 2.5 pour le volume de contenu quotidien et Wan Image pour les workflows texte vers image.

FAQ Wan 2.6 API

Everything you need to know about the product and billing.

Wan 2.6 est le dernier modèle de génération de vidéo IA cinématique développé par l'équipe Tongyi Wanxiang d'Alibaba, avec narration multi-plans, sortie audio selon la documentation actuelle des routes et clips 1080p jusqu'à 15 secondes à partir de textes, d'images ou de références (2–15 s pour texte vers vidéo et image vers vidéo, 2–10 s pour vidéo de référence). Evolink AI fournit Wan 2.6 API comme couche d'intégration simplifiée, facilitant aux développeurs et créateurs l'appel de ce modèle puissant dans leurs applications, outils SaaS ou workflows sans gérer directement l'infrastructure Alibaba Cloud. Il est idéal pour les développeurs indépendants construisant des fonctionnalités vidéo, les marketeurs créant des publicités TikTok/Reels et les créateurs produisant du contenu court rapidement et à grande échelle.
Alibaba a open-sourcé des versions antérieures de Wan telles que Wan 2.1, tandis que Wan 2.6 est documenté comme un modèle accessible par API sur DashScope et Model Studio d'Alibaba. En avril 2026, nous n'avons pas trouvé de source officielle Alibaba confirmant Wan 2.6 lui-même comme open source, donc pour l'état le plus actuel veuillez vérifier les annonces officielles d'Alibaba. Pour utiliser Wan 2.6 aujourd'hui, vous pouvez l'appeler via Wan 2.6 API sur Evolink AI sans gérer directement l'infrastructure Alibaba Cloud.
Wan 2.6 Flash est une variante plus rapide de la gamme de génération vidéo Wan 2.6, optimisée pour un temps d'inférence plus court à un coût à la seconde plus bas. Il est bien adapté aux workflows itératifs à haut volume comme les tests A/B de hooks publicitaires sociaux, la génération de plusieurs variantes du même prompt ou l'alimentation de fonctionnalités vidéo in-app où la latence importe plus que la qualité absolue la plus élevée. Wan 2.6 API standard est le bon choix quand vous voulez la sortie cinématique complète, tandis que Wan 2.6 Flash est le bon choix quand vous voulez vitesse et économie unitaire.
Avec le générateur de vidéo IA Wan 2.6 vous pouvez créer des clips narratifs, démos de produits, explications de style UGC et scènes imaginatives à partir de textes ou d'images. Le modèle est particulièrement fort sur les vidéos narratives courtes pouvant aller jusqu'à 15 secondes (2–15 s pour texte/image, 2–10 s pour vidéo de référence) avec mouvement de caméra fluide, sortie audio selon la documentation actuelle des routes et personnages cohérents. Cela le rend idéal pour TikTok, Reels, YouTube Shorts, publicités sociales et toute application où les utilisateurs veulent de la vidéo dynamique à partir d'une entrée minimale.
Les outils text-to-video basiques produisent souvent un seul plan statique avec un mouvement générique et pas d'audio intégré, vous forçant à tout éditer et sound-designer ensuite. Wan 2.6 API se concentre sur la narration multi-plans, la physique plus fluide et la sortie audio en parallèle de la vidéo selon la documentation actuelle des routes, de sorte que vos clips semblent davantage des scènes planifiées que des tests IA aléatoires. Vous obtenez aussi plus de contrôle sur rythme, point de vue et continuité, ce qui compte quand vous essayez de générer des clics, du temps de visionnage ou des conversions.
Oui, les créateurs non techniques peuvent bénéficier de Wan 2.6 API tant que quelqu'un met en place une interface ou un outil simple autour. Une fois intégré, vous pouvez exposer uniquement les champs qui intéressent les créateurs, comme prompt, image de référence, rapport d'aspect et longueur vidéo. À partir de là, ils tapent simplement des instructions comme pour une légende ou un script, cliquent sur générer, et reçoivent des clips finis qu'ils peuvent publier ou éditer légèrement avant de publier.
Wan 2.6 API est bien adapté aux publicités sur réseaux sociaux et campagnes de marque car il équilibre qualité et vitesse. Vous pouvez prototyper de nombreux concepts visuels, angles et hooks sans réserver de tournages ou de motion designers, puis promouvoir les versions qui performent le mieux. En réutilisant prompts et assets de référence, vous gardez personnages, photos produit et styles de marque cohérents même en testant différentes trames et offres.
Le temps de génération dépend de la longueur et du trafic, mais Wan 2.6 API est conçu pour le contenu court, donc les clips sont généralement prêts en minutes plutôt qu'en heures. Ce délai est assez rapide pour supporter les calendriers de contenu quotidiens, les posts sociaux réactifs et les flux de création vidéo automatisée. Vous pouvez demander plusieurs générations en parallèle via Evolink AI pour suivre des horaires de publication à plus haut volume.
Les meilleurs prompts Wan 2.6 se lisent comme des mini briefs de tournage plutôt que des tags mot-clé isolés. Mentionnez le décor, le sujet, le style de caméra et ce qui se passe dans l'ordre, et incluez l'émotion ou l'ambiance que vous voulez que les spectateurs ressentent. Par exemple, vous pouvez décrire le hook d'ouverture, le plan d'action principal et l'image finale avec call-to-action, ce qui aide le générateur de vidéo IA Wan 2.6 à produire des histoires plus claires et plus regardables pour votre audience.
Vous pouvez intégrer Wan 2.6 API dans votre SaaS, automatisation ou outils de contenu via Evolink AI, qui gère le routage, la mise à l'échelle et la surveillance pour vous. Cela vous permet d'offrir des fonctionnalités de génération vidéo in-app où les utilisateurs tapent des prompts, téléversent des images et reçoivent des clips prêts à l'emploi sans quitter votre produit. C'est un moyen simple d'ajouter des capacités modernes de vidéo IA tout en gardant votre propre équipe d'ingénierie concentrée sur les fonctionnalités core.
POST
/v1/videos/generations

Create Video

WAN 2.6 Text to Video (wan2.6-text-to-video) model supports text-to-video generation with enhanced quality and longer duration options.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.6-text-to-video

Video generation model name.

Examplewan2.6-text-to-video
promptstringRequired

Text description of the video to generate.

Notes
  • Maximum 1500 characters
ExampleA majestic eagle soaring through mountain peaks at sunset, cinematic lighting
aspect_ratiostringOptionalDefault: 16:9

Video aspect ratio.

ValueDescription
16:9Landscape video (default)
9:16Portrait video
1:1Square video
4:3Standard video
3:4Portrait standard
Example16:9
qualitystringOptionalDefault: 720p

Video quality. Higher quality costs more.

ValueDescription
720pStandard quality (1.0x price)
1080pHigh quality (1.67x price)
Example720p
durationintegerOptionalDefault: 5

Duration of the generated video in seconds. Supports 2-15 seconds.

Notes
  • Range: 2-15 seconds (any integer)
  • Price is calculated as: base_price × duration × quality_multiplier
Example5
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting.

Notes
  • When enabled, AI will optimize your prompt for better video generation
  • Recommended for simple or short prompts
Exampletrue
model_params.shot_typestringOptionalDefault: single

Shot type for video generation.

ValueDescription
singleSingle continuous shot
multiMultiple camera angles/shots
Notes
  • Only effective when prompt_extend is true
Examplesingle
audio_urlstringOptional

Audio file URL. The model will use this audio to generate the video.

Notes
  • Supported format: mp3
  • Duration: 3-30 seconds
  • File size: up to 15MB
  • If audio exceeds video duration, only the first portion is used
  • If audio is shorter than video, the remaining portion will be silent
Examplehttps://example.com/audio.mp3
callback_urlstringOptional

HTTPS callback address after task completion.

Notes
  • Triggered on completion, failure, or cancellation
  • HTTPS only, no internal IPs
  • Max length: 2048 chars
  • Timeout: 10s, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.6-text-to-video",
  "prompt": "A majestic eagle soaring through mountain peaks at sunset, cinematic lighting",
  "aspect_ratio": "16:9",
  "quality": "720p",
  "duration": 10,
  "prompt_extend": true,
  "model_params": {
    "shot_type": "single"
  }
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-abc123",
  "model": "wan2.6-text-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 60
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_second",
    "credits_reserved": 10,
    "user_group": "default"
  }
}
Wan 2.6 API : Générateur de vidéo IA cinématique | Evolink AI