Seedance 2.0 API — Coming SoonGet early access

Wan 2.6 API

Transformez idées, scripts ou images statiques en clips cinématiques avec l'API Wan 2.6, optimisée pour le contenu social rapide et les workflows créateurs.

Animate this image with smooth motion

Parameters
duration
5
quality
720p
prompt_extend
true
shot_type
single
Estimated Cost
3 Credits
Sample Result

No sample available

37 (suggested: 2,000)

Upload reference images

Click to upload or drag and drop

Supported formats: JPG, JPEG, PNG, WEBP
Maximum file size: 10MB; Maximum files: 10

Click Generate to see preview

Historique

Max 20 éléments

0 en cours · 0 terminé

Votre historique de génération apparaîtra ici

Wan 2.6 API pour des vidéos short‑form cinématiques

Passez du texte ou des images à des clips 1080p, sound‑on et multi‑shots prêts pour TikTok, Reels, YouTube Shorts et ads, sans ouvrir un éditeur vidéo.

Wan 2.6 showcase de génération vidéo IA – feature 1

Pricing

Popular
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:5s
Price:
$0.3542/ video
(25.5 Credits)
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:10s
Price:
$0.7083/ video
(51 Credits)
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:15s
Price:
$1.0625/ video
(76.5 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:5s
Price:
$0.5915/ video
(42.585 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:10s
Price:
$1.1829/ video
(85.17 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:15s
Price:
$1.7744/ video
(127.755 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Ce que vous pouvez faire avec l'API Wan 2.6

Texte vers vidéo avec audio natif

L'API Wan 2.6 vous permet de taper un court script ou une caption et de recevoir un short complet avec mouvement, mouvements de caméra et audio synchronisé en une seule passe. Au lieu d'assembler des clips dans un éditeur, vous décrivez la scène, l'ambiance et le rythme, et le générateur vidéo IA Wan 2.6 gère le cadrage, les transitions et le son pour que vous vous concentriez sur les idées, pas les timelines.

Text to video showcase de la génération vidéo IA – feature 2

Image et référence vers vidéo

Avec l'API Wan 2.6, vous pouvez partir d'une image existante ou d'une vidéo de référence et l'étendre en une scène animée qui garde le même personnage, style ou look produit. Idéal si vous avez déjà des visuels de marque ou un hero shot et souhaitez l'animer en contenu social dynamique sans reshooter, tout en gardant couleurs, tenues et cadrage cohérents sur plusieurs clips.

Image to video showcase de la génération vidéo IA – feature 3

Storytelling multi‑shots pour les réseaux sociaux

L'API Wan 2.6 est conçue pour des vidéos courtes et narratives plutôt que des plans isolés. Vous pouvez décrire plusieurs beats dans un prompt et le modèle génère une séquence multi‑shots de 5 à 15 secondes avec mouvement et physique cohérents. Cela facilite la création de formats tendance, d'explainers UGC et d'ads narratives qui semblent planifiées plutôt que assemblées à partir de scènes sans lien.

Multi shot storytelling showcase de la génération vidéo IA – feature 4

Pourquoi choisir l'API Wan 2.6 pour vos vidéos

L'API Wan 2.6 vous aide à créer des vidéos sociales cohérentes et à fort impact sans studio, compétences d'édition ou gros budget.

Qualité cinématique sans casse‑tête de production

L'API Wan 2.6 fournit des shorts 1080p nets avec mouvement, éclairage et physique réalistes, pour un rendu plus proche d'un shooting pro que d'un template rapide. Au lieu de coordonner caméras, acteurs et lieux, vous décrivez les scènes une fois et laissez le modèle gérer animation, timing et audio, ce qui vous libère pour tester plus d'idées par semaine.

Itération plus rapide pour TikTok, Reels et ads

Les plateformes short‑form récompensent l'expérimentation constante, et l'API Wan 2.6 est faite pour ce rythme. Vous pouvez générer plusieurs versions d'un même concept, changer uniquement le hook ou l'arrière‑plan, puis voir rapidement ce qui performe. Comme tout passe par l'API, vous pouvez automatiser dans vos outils ou flows au lieu d'exporter et d'uploader manuellement depuis un éditeur.

Histoires cohérentes pour marque et personnages

L'API Wan 2.6 aide à garder vos personnages, produits et univers cohérents sur des dizaines de clips, ce qui est difficile avec des assets stock isolés. En réutilisant prompts et références, vous pouvez raconter des histoires continues autour d'une mascotte, d'un influenceur ou d'une gamme produit, pour un feed cohérent plutôt qu'une collection aléatoire de vidéos.

Comment utiliser l'API Wan 2.6 étape par étape

Vous n'avez pas besoin d'être développeur pour planifier de bons prompts, mais l'API Wan 2.6 permet aux équipes d'intégrer facilement la génération vidéo dans des produits réels.

1

1. Connecter votre compte Evolink AI

Inscrivez-vous sur Evolink AI, activez l'API Wan 2.6 dans votre dashboard et récupérez la clé API que votre app ou backend utilisera pour des requêtes vidéo sécurisées.

2

2. Rédiger un prompt social ou choisir une image

Écrivez un court brief type TikTok avec notes de scène ou uploadez un key visual, puis envoyez‑le à l'API Wan 2.6 en mode texte‑vers‑vidéo ou image‑vers‑vidéo.

3

3. Générer, revoir et publier votre vidéo

L'API Wan 2.6 renvoie votre clip après traitement ; vous le revoyez, sauvegardez les meilleures versions et publiez directement sur vos réseaux ou en ads.

Fonctionnalités Wan 2.6 API pensées pour les créateurs

Chaque fonctionnalité Wan 2.6 est calibrée pour les réseaux sociaux, l'UGC et les outils vidéo SaaS, pas les workflows studio.

Sound‑on ready

Audio natif et lip‑sync

L'API Wan 2.6 génère visuels et son ensemble, pour des scènes avec dialogue, ambiance et musique déjà synchronisés au mouvement. Vous pouvez poster des clips sound‑on directement sur TikTok ou Reels sans chercher de pistes séparées ni caler le voiceover image par image.

Story‑first output

Clips multi‑shots de 5–15 secondes

Au lieu d'un plan unique, le générateur vidéo IA Wan 2.6 crée des vidéos multi‑shots qui correspondent à la façon dont on raconte des histoires sur les réseaux. Vous pouvez couvrir le hook, la démo produit et la scène de clôture dans un seul clip, ce qui rend le message clair en quelques secondes avant que les viewers ne swipent.

Flexible inputs

Entrées texte, image et référence

L'API Wan 2.6 fonctionne avec du texte simple, des images ou des vidéos de référence, vous permettant de partir de ce que vous avez déjà. Transformez des photos produit en motion, utilisez des personnages illustrés comme acteurs vidéo ou étendez un clip existant en nouvelles scènes, tout en gardant style et branding cohérents sur le feed et les campagnes.

Simple controls

Contrôles créateur‑friendly, pas de jargon

Plutôt que de vous noyer dans des réglages complexes, l'API Wan 2.6 se concentre sur des contrôles que les créateurs comprennent : rythme, mood, feeling caméra. Vous pouvez masquer les paramètres techniques dans votre app et n'exposer que des sliders ou presets simples, afin que des collègues non techniques génèrent des idées vidéo on‑brand sans formation.

Social‑first design

Optimisée pour les formats sociaux

L'API Wan 2.6 est calibrée pour les formats short‑form, ce qui facilite la génération de clips qui rendent bien sur les feeds verticaux et les écrans mobiles. Concevez des prompts autour des hooks, transitions et call‑to‑action, puis réutilisez‑les sur plusieurs campagnes et canaux pour bâtir un playbook vidéo répétable, pas des expériences one‑off.

Workflow‑ready

Intégration facile aux apps et workflows

Via Evolink AI, vous pouvez intégrer l'API Wan 2.6 dans des dashboards SaaS, outils de contenu ou automations internes sans réinventer l'infrastructure. Déclenchez la génération depuis des formulaires, queues ou outils no‑code, laissez l'API traiter, puis envoyez les clips finis directement vers votre stockage, éditeurs ou pipeline de publication, avec un minimum d'étapes manuelles.

FAQ API Wan 2.6

Everything you need to know about the product and billing.

Wan 2.6 est le dernier modèle cinématique de génération vidéo IA développé par l'équipe Alibaba Tongyi Wanxiang, avec storytelling multi‑shots, audio natif synchronisé, lip‑sync et clips 1080p jusqu'à 15 secondes à partir de texte, images ou références. Evolink AI fournit l'API Wan 2.6 comme couche d'intégration simplifiée, facilitant l'appel de ce modèle puissant depuis vos apps, outils SaaS ou workflows sans gérer l'infrastructure Alibaba Cloud. Idéal pour les développeurs indépendants qui construisent des features vidéo, les marketeurs qui créent des ads TikTok/Reels, et les créateurs qui produisent du short‑form rapidement et à l'échelle.
Avec le générateur vidéo IA Wan 2.6, vous pouvez créer des clips narratifs, des démos produit, des explainers style UGC et des scènes imaginatives à partir de texte ou d'images. Le modèle est particulièrement fort pour des vidéos narratives de 5–15 secondes avec mouvements de caméra fluides, son natif et personnages cohérents. Idéal pour TikTok, Reels, YouTube Shorts, ads sociales et toute app où les utilisateurs veulent de la vidéo dynamique à partir d'un input minimal.
Les outils texte‑vers‑vidéo basiques produisent souvent un plan statique avec mouvement générique et sans audio intégré, vous obligeant à éditer et à designer le son ensuite. L'API Wan 2.6 se concentre sur le storytelling multi‑shots, une physique plus fluide et un audio natif, pour des clips qui ressemblent à des scènes planifiées plutôt qu'à des tests IA aléatoires. Vous gagnez aussi plus de contrôle sur le rythme, le point de vue et la continuité, essentiels pour générer des clics, watch time ou conversions.
Oui, tant qu'une interface simple est mise en place autour de l'API. Une fois intégrée, vous pouvez exposer uniquement les champs utiles aux créateurs : prompt, image de référence, ratio et durée vidéo. Ils tapent des instructions comme une caption ou un script, cliquent sur générer et reçoivent des clips finis à publier ou à éditer légèrement.
L'API Wan 2.6 est bien adaptée aux ads sociales et campagnes de marque, car elle équilibre qualité et vitesse. Vous pouvez prototyper de nombreux concepts visuels, angles et hooks sans réserver de shootings ou motion designers, puis promouvoir les versions qui performent le mieux. En réutilisant prompts et assets de référence, vous gardez personnages, packs produit et styling de marque cohérents tout en testant différentes storylines et offres.
Le temps de génération dépend de la longueur et du trafic, mais l'API Wan 2.6 est conçue pour le contenu short‑form ; les clips sont généralement prêts en minutes plutôt qu'en heures. C'est suffisamment rapide pour des calendriers de contenu quotidiens, des posts réactifs et des flows de création vidéo automatisés. Vous pouvez lancer plusieurs générations en parallèle via Evolink AI pour tenir des rythmes de publication plus élevés.
Les meilleurs prompts Wan 2.6 ressemblent à des mini briefs de tournage plutôt qu'à des tags isolés. Mentionnez le décor, le sujet, le style de caméra et l'ordre des actions, puis l'émotion ou l'ambiance que vous voulez transmettre. Par exemple, décrivez le hook d'ouverture, l'action principale et le frame de clôture avec call‑to‑action pour aider le générateur vidéo IA Wan 2.6 à produire des histoires plus claires et plus regardables.
Vous pouvez intégrer l'API Wan 2.6 dans votre SaaS, automation ou outils de contenu via Evolink AI, qui gère le routage, le scaling et le monitoring. Cela vous permet d'offrir des features de génération vidéo in‑app où les utilisateurs tapent des prompts, uploadent des images et reçoivent des clips prêts à l'emploi sans quitter votre produit. C'est une manière simple d'ajouter des capacités vidéo IA modernes tout en gardant votre équipe engineering concentrée sur le cœur du produit.
POST
/v1/videos/generations

Create Video

WAN2.6 (wan2.6-image-to-video) model supports first-frame image-to-video generation.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.6-image-to-video

Model name.

Examplewan2.6-image-to-video
promptstringRequired

Prompt describing the video you want to generate.

Notes
  • Limited to 1500 characters
ExampleA cat playing piano
image_urlsarrayRequired

Reference image URL list for first-frame image-to-video generation.

Notes
  • Single request supports 1 image
  • Image size: no more than 10MB
  • Supported formats: .jpeg, .jpg, .png (transparent channel not supported), .bmp, .webp
  • Image resolution: width and height range is [360, 2000] pixels
  • Image URL must be directly accessible by the server
Examplehttps://example.com/image1.png
durationintegerOptionalDefault: 5

Specifies the duration of the generated video (in seconds).

ValueDescription
55 seconds duration
1010 seconds duration
1515 seconds duration
Notes
  • Each request will be pre-charged based on the duration value, actual charge is based on the generated video duration
Example5
qualitystringOptionalDefault: 720p

Video quality. 1080p costs 1.67x more than 720p.

ValueDescription
720pStandard definition, standard price (default)
1080pHigh definition, 1.67x price
Example720p
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting. When enabled, a large model will optimize the prompt, which significantly improves results for simple or insufficiently descriptive prompts.

ValueDescription
trueEnable intelligent prompt rewriting (default)
falseDisable intelligent prompt rewriting
Exampletrue
model_paramsobjectOptional

Model parameter configuration.

model_params.shot_typestringOptionalDefault: single

Specifies the shot type for the generated video.

ValueDescription
singleOutputs single-shot video (default)
multiOutputs multi-shot video
Notes
  • Only effective when prompt_extend is true
  • shot_type priority > prompt priority
Examplesingle
audio_urlstringOptional

Audio file URL. The model will use this audio to generate the video.

Notes
  • Supported format: mp3
  • Duration: 3-30 seconds
  • File size: up to 15MB
  • If audio exceeds video duration, only the first portion is used
  • If audio is shorter than video, the remaining portion will be silent
Examplehttps://example.com/audio.mp3
callback_urlstringOptional

HTTPS callback URL for task completion.

Notes
  • Triggered when task is completed, failed, or cancelled
  • Sent after billing confirmation
  • Only HTTPS protocol is supported
  • Callbacks to internal IP addresses are prohibited
  • URL length must not exceed 2048 characters
  • Timeout: 10 seconds, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.6-image-to-video",
  "prompt": "A cat playing piano",
  "image_urls": [
    "https://example.com/image1.png"
  ],
  "duration": 5,
  "quality": "720p",
  "prompt_extend": true,
  "model_params": {
    "shot_type": "single"
  }
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-7cvnl5zw",
  "model": "wan2.6-image-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 120
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_call",
    "credits_reserved": 5,
    "user_group": "default"
  }
}
Wan 2.6 API : générateur vidéo IA avec audio natif | Evolink AI