Seedance 2.0 API — Coming SoonGet early access

Wan 2.5 API

Transformez de courts prompts ou images de référence en vidéos prêtes à publier avec audio synchronisé via l'API Wan 2.5 sur Evolink AI.

Estimated Cost
6 Credits
Sample Result

No sample available

0 (suggested: 2,000)

480p supports 16:9, 9:16, 1:1; 720p/1080p add 4:3 and 3:4

Click Generate to see preview

Historique

Max 20 éléments

0 en cours · 0 terminé

Votre historique de génération apparaîtra ici

Wan 2.5 API pour la vidéo IA avec son

Générez de courtes vidéos HD avec audio natif, lip-sync et cadrage social-ready depuis de simples entrées texte ou image, via une API Evolink AI claire.

Social media showcase de la fonctionnalité 1 de génération vidéo IA

Pricing

WAN 2.5 Text to Video
Video Generation
Duration:5s
Quality:480p
Price:
$0.0354/ video
(2.55 Credits)
Popular
WAN 2.5 Text to Video
Video Generation
Duration:5s
Quality:720p
Price:
$0.0708/ video
(5.1 Credits)
WAN 2.5 Text to Video
Video Generation
Duration:5s
Quality:1080p
Price:
$0.1183/ video
(8.517 Credits)
WAN 2.5 Text to Video
Video Generation
Duration:10s
Quality:480p
Price:
$0.0708/ video
(5.1 Credits)
WAN 2.5 Text to Video
Video Generation
Duration:10s
Quality:720p
Price:
$0.1417/ video
(10.2 Credits)
WAN 2.5 Text to Video
Video Generation
Duration:10s
Quality:1080p
Price:
$0.2366/ video
(17.034 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Qu'est-ce que l'API Wan 2.5 sur Evolink AI ?

Texte-vers-vidéo avec audio

L'API Wan 2.5 vous permet d'envoyer un court prompt texte et de recevoir un clip cinématographique avec son, voix ou ambiance générés automatiquement, prêt pour TikTok, Reels et Shorts sans montage supplémentaire. Au lieu d'assembler plusieurs outils, vous obtenez visuels, rythme et audio en un seul passage, ce qui facilite les tests de hooks, concepts et angles publicitaires à l'échelle sur différents comptes sociaux.

Vertical feed showcase de la fonctionnalité 2 de génération vidéo IA

Image-vers-vidéo pour stories produit

Avec l'API Wan 2.5, vous pouvez uploader un key visual unique, comme un packshot ou un design de personnage, et le transformer en clip dynamique court tout en restant cohérent avec l'image d'origine. Idéal pour transformer des images catalogue statiques en ads qui arrêtent le scroll, motion posters ou snippets de story où la caméra bouge, la lumière change et l'audio renforce votre message de marque en quelques secondes.

Product motion showcase de la fonctionnalité 3 de génération vidéo IA

Conçu pour les créateurs social-first

L'API Wan 2.5 via Evolink AI est pensée pour les créateurs social media et les builders SaaS indépendants qui privilégient vitesse, volume et cohérence plutôt que des benchmarks académiques. Elle se concentre sur des clips courts de 3–10 secondes, des formats verticaux et carrés, et un audio réellement aligné avec l'image pour que vos vidéos s'intègrent directement aux calendriers de contenu, templates UGC ou systèmes de publication automatisée sans retoucher chaque rendu.

Creator workflow showcase de la fonctionnalité 4 de génération vidéo IA

Pourquoi choisir Wan 2.5 API via Evolink AI ?

L'API Wan 2.5 combine le modèle audio-visuel d'Alibaba avec le routage simple d'Evolink AI pour que vous vous concentriez sur les idées, pas sur la config cloud ou l'infrastructure complexe.

Audio et vidéo en un seul passage

La plupart des outils vidéo IA vous obligent encore à jongler entre modèles séparés pour visuels et son, ce qui crée friction, gestion de fichiers et problèmes de synchronisation. L'API Wan 2.5 génère vidéo et audio ensemble, y compris lip-sync et ambiance, pour un clip court qui ressemble déjà à un rendu final. Pour les créateurs et produits SaaS qui dépendent de la vitesse, ce workflow en une étape réduit beaucoup d'overhead invisible.

Intégration Wan 2.5 simple

Wan 2.5 est un modèle Alibaba Tongyi Wanxiang, mais Evolink AI l'emballe dans une API Wan 2.5 directe pour éviter réglages région, projets console séparés ou tableaux de bord de facturation complexes. Vous appelez un endpoint unique avec des paramètres clairs et Evolink AI route vers le modèle Wan 2.5 sous-jacent, ce qui facilite l'intégration de la génération vidéo dans vos produits ou workflows de contenu.

Optimisée pour l'expérimentation short-form

L'API Wan 2.5 se concentre sur des clips courts en HD pour itérer rapidement des idées créatives plutôt que d'attendre des rendus longs. Pour les marketeurs, agences et équipes growth, c'est parfaitement aligné avec les tests constants par audience, géos et hooks. Vous pouvez générer de nombreuses variantes ciblées, voir ce qui performe et réinvestir dans les concepts qui font réellement bouger les métriques.

Comment utiliser l'API Wan 2.5

Connectez l'API Wan 2.5 via Evolink AI et passez du prompt à la vidéo publiée en quelques étapes simples.

1

Connecter votre compte Evolink AI

Inscrivez-vous ou connectez-vous à Evolink AI, créez une clé API et activez l'accès Wan 2.5 API pour que votre app appelle les endpoints vidéo en sécurité sans toucher Alibaba Cloud directement.

2

Envoyer prompts, images et réglages de base

Choisissez texte-vers-vidéo ou image-vers-vidéo, rédigez un prompt clair, uploadez une image de référence optionnelle, définissez durée et ratio, puis envoyez une requête JSON simple vers la route Wan 2.5 API.

3

Recevoir, revoir et publier vos clips

Récupérez l'URL de la vidéo Wan 2.5 générée, prévisualisez audio et visuels, puis intégrez-la à votre éditeur, planificateur ou interface SaaS pour téléchargement, publication ou automatisation.

Fonctionnalités clés de l'API Wan 2.5

L'API Wan 2.5 sur Evolink AI se concentre sur des use cases sociaux et marketing réels plutôt que des démos de labo, donc chaque feature se traduit par un bénéfice créateur clair.

Audio-visual

Audio natif et lip-sync

L'API Wan 2.5 peut rendre la vidéo avec audio par défaut, incluant voix, effets ou musique, ce qui signifie que votre équipe n'a plus besoin d'un pipeline audio séparé pour donner vie aux clips.

Short-form

Clips HD courts pour les feeds sociaux

Le modèle est réglé pour des vidéos HD de 3–10 secondes afin de toucher le sweet spot TikTok, Reels et placements publicitaires, sans gaspiller budget ou temps sur des rendus trop longs que personne ne regarde.

Flexible input

Texte ou image en entrée flexible

Vous pouvez partir d'un script texte simple ou réutiliser une image existante comme base, ce qui permet d'adapter l'API Wan 2.5 à l'idéation, aux showcases produit et aux outils créateurs dans la même stack.

Global-ready

Support multi-langues pour prompt et audio

L'API Wan 2.5 est à l'aise avec des prompts chinois et anglais et peut garder l'audio aligné, ce qui est utile quand votre audience couvre plusieurs régions et langues.

Cinematic feel

Motion cohérente et contrôle

Le modèle offre un mouvement plus fluide et une meilleure dynamique de caméra que les anciennes versions Wan, pour des vidéos plus cinématiques et moins 'janky', même en campagnes rapides.

Automation

Intégré pour l'automatisation et le SaaS

Comme l'API Wan 2.5 passe par Evolink AI, vous pouvez l'intégrer à des cron jobs, des outils no-code ou des backends SaaS complets pour auto-générer des assets vidéo selon des calendriers, feeds ou prompts.

FAQ API Wan 2.5

Everything you need to know about the product and billing.

Wan 2.5 est un modèle vidéo IA développé par l'équipe Alibaba Tongyi Wanxiang qui transforme des prompts texte ou des images uniques en courtes vidéos HD avec audio natif et lip-sync. L'API Wan 2.5 via Evolink AI est une couche d'intégration qui expose ce modèle via une API simple, afin que vous puissiez appeler Wan 2.5 depuis vos apps, produits SaaS ou outils créateurs sans toucher Alibaba Cloud directement. Elle est conçue pour les développeurs, marketeurs et créateurs social media qui veulent une génération audio-vidéo fiable en tant que service plutôt que de gérer une infrastructure bas niveau.
L'API Wan 2.5 excelle pour des clips courts type story adaptés aux plateformes sociales et aux ads performance. Vous pouvez l'utiliser pour produire des explainers produit, des intros qui stoppent le scroll, des motion posters et des beats rapides qui associent visuels et son. Beaucoup d'équipes utilisent Wan 2.5 pour tester hooks et concepts avant d'investir dans des productions complètes, en générant plusieurs variantes d'une même idée et en laissant les données d'engagement réelles décider quelle direction scaler.
L'API Wan 2.5 offre un bon équilibre entre qualité audio-visuelle, coût et vitesse pour des vidéos de 3–10 secondes, tandis que des modèles plus récents comme Wan 2.6 poussent davantage le storytelling multi-shots et le contrôle narratif avancé. Pour de nombreuses tâches sociales et UGC du quotidien, Wan 2.5 apporte déjà assez de réalisme et de mouvement pour paraître natif dans les feeds, à un prix plus accessible que les modèles cinématiques lourds. C'est donc un bon modèle de base dans votre stack, surtout combiné à des options premium pour des shots haut de gamme.
L'API Wan 2.5 supporte les modes texte-vers-vidéo et image-vers-vidéo, choisis via un paramètre dans l'endpoint Evolink AI. En mode texte, vous fournissez un prompt décrivant scène, style et rythme, et le modèle génère un clip neuf avec audio approprié. En mode image, vous uploadez une image fixe, un key visual ou un personnage, et la vidéo s'anime autour tout en conservant l'identité, avec mouvements de caméra, transitions et son.
Les clips Wan 2.5 durent typiquement 3–10 secondes, idéal pour hooks, transitions et petites histoires sur les réseaux. Les options de résolution vont souvent de 480p et 720p jusqu'au 1080p complet, selon vos réglages et votre plan. Cela maintient des temps de rendu et des coûts raisonnables tout en livrant des visuels propres sur les écrans de smartphones modernes et dans des formats publicitaires verticaux ou carrés.
L'API Wan 2.5 est généralement facturée à la seconde via des crédits basés sur l'usage, avec des prix alignés sur un niveau milieu de marché pour la génération vidéo HD. Les clips plus courts et les résolutions plus faibles consomment moins de crédits, tandis que les clips plus longs ou en haute résolution en consomment davantage, vous donnant le contrôle du budget et de la qualité. Le résultat est un modèle pay-for-what-you-generate qui fonctionne bien pour les expérimentations, campagnes et workloads SaaS à demande variable.
L'API Wan 2.5 via Evolink AI est conçue pour un usage commercial, des performance ads au contenu de marque et aux features SaaS embarquées. Comme pour tout service IA, vous devez consulter les derniers termes d'Evolink AI et du fournisseur sous-jacent, vérifier les guidelines d'usage pour votre région et vertical, et mettre en place une étape de review interne simple avant de lancer des campagnes clients ou des assets à forte visibilité.
Vous pouvez appeler l'API Wan 2.5 depuis des services backend, des fonctions serverless, des outils low-code ou des plateformes no-code qui supportent les requêtes HTTP. Un pattern courant est de déclencher la génération vidéo quand du contenu est créé, lorsqu'un utilisateur soumet un brief, ou selon un calendrier pour des campagnes récurrentes. La documentation Evolink AI inclut des requêtes exemples, objets de réponse et patterns d'erreur, afin que votre temps d'ingénierie aille à la logique produit plutôt qu'au debug d'infrastructure brute.
POST
/v1/videos/generations

Create Video

Wan 2.5 Video Text to Video (wan2.5-text-to-video) model supports text-to-video generation mode.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.5-text-to-video

Video generation model name.

Examplewan2.5-text-to-video
promptstringRequired

Prompt describing what kind of video to generate.

Notes
  • Limited to 2000 tokens
ExampleA cat playing piano
aspect_ratiostringOptionalDefault: 16:9

Video aspect ratio.

ValueDescription
16:9Landscape video
9:16Portrait video
1:1Square video
4:3Standard video (720p/1080p only)
3:4Portrait standard (720p/1080p only)
Notes
  • 480p supports: 16:9, 9:16, 1:1
  • 720p/1080p supports all ratios
Example16:9
qualitystringOptionalDefault: 720p

Video quality.

ValueDescription
480pLower quality, lower price
720pStandard quality (default)
1080pHigh quality, higher price
Notes
  • Different quality levels support different aspect ratios
Example720p
durationintegerOptional

Duration of the generated video (seconds).

ValueDescription
55 seconds
1010 seconds
Notes
  • Pre-charged based on duration, actual charge based on generated video duration
Example5
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting.

Notes
  • When enabled, a large language model will optimize the prompt
  • Effective for prompts that lack detail or are too simple
Exampletrue
callback_urlstringOptional

HTTPS callback address after task completion.

Notes
  • Triggered on completion, failure, or cancellation
  • Sent after billing confirmation
  • HTTPS only, no internal IPs
  • Max length: 2048 chars
  • Timeout: 10s, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.5-text-to-video",
  "prompt": "A cat playing piano",
  "aspect_ratio": "16:9",
  "quality": "720p",
  "duration": 5
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-7cvnl5zw",
  "model": "wan2.5-text-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 30,
    "video_duration": 8
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_call",
    "credits_reserved": 5,
    "user_group": "default"
  }
}
Wan 2.5 API : génération vidéo IA avec audio synchro | Evolink AI