Seedance 2.0 API — Coming SoonGet early access

Wan 2.6 API

Verwandeln Sie Ideen, Skripte oder statische Bilder in cinematische Clips mit der Wan 2.6 API – optimiert für schnellen Social-Content und Creator-Workflows.

Animate this image with smooth motion

Parameters
duration
5
quality
720p
prompt_extend
true
shot_type
single
Estimated Cost
3 Credits
Sample Result

No sample available

37 (suggested: 2,000)

Upload reference images

Click to upload or drag and drop

Supported formats: JPG, JPEG, PNG, WEBP
Maximum file size: 10MB; Maximum files: 10

Click Generate to see preview

Verlauf

Max. 20 Einträge

0 läuft · 0 abgeschlossen

Ihre Generierungshistorie erscheint hier

Wan 2.6 API für cinematisches Short‑Form‑Video

Mit der Wan 2.6 API wechseln Sie von Text oder Bildern zu 1080p, Sound‑on, Multi‑Shot‑Clips für TikTok, Reels, YouTube Shorts und Ad Creatives – ohne Video-Editor.

Wan 2.6 KI-Video-Showcase der Produktkategorie Feature 1

Pricing

Popular
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:5s
Price:
$0.3542/ video
(25.5 Credits)
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:10s
Price:
$0.7083/ video
(51 Credits)
WAN 2.6 Image to Video
Video Generation
quality:720p
duration:15s
Price:
$1.0625/ video
(76.5 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:5s
Price:
$0.5915/ video
(42.585 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:10s
Price:
$1.1829/ video
(85.17 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
duration:15s
Price:
$1.7744/ video
(127.755 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Was Sie mit der Wan 2.6 API tun können

Text-zu-Video mit nativem Audio

Die Wan 2.6 API ermöglicht es, ein kurzes Skript oder eine Caption einzugeben und ein komplettes Short-Video mit Motion, Kamerafahrten und synchronisiertem Audio in einem Schritt zu erhalten. Statt Clips im Editor zu schneiden, beschreiben Sie Szene, Stimmung und Pacing, und der Wan‑2.6‑Generator übernimmt Framing, Transitions und Sound – so fokussieren Sie Ideen statt Timelines.

Text‑to‑Video‑Showcase der KI‑Video‑Generierung Feature 2

Bild und Referenz zu Video

Mit der Wan 2.6 API können Sie ein vorhandenes Bild oder Referenzvideo als Ausgangspunkt nehmen und in eine bewegte Szene verlängern, die Charakter, Stil oder Produkt-Look beibehält. Ideal, wenn Sie bereits Brand-Visuals oder einen Hero Shot haben und diese ohne Reshoot in dynamischen Social Content verwandeln möchten – mit konsistenter Farbe, Outfit und Framing über mehrere Clips hinweg.

Image‑to‑Video‑Showcase der KI‑Video‑Generierung Feature 3

Multi‑Shot‑Storytelling für Social Media

Die Wan 2.6 API ist für kurze, story‑getriebene Videos gebaut statt für zufällige One‑Off‑Shots. Sie können mehrere Beats in einem Prompt beschreiben, und das Modell erzeugt eine 5–15‑Sekunden‑Sequenz mit kohärenter Motion und Physik. So lassen sich Trendformate, UGC‑Explainer und narrative Ads erstellen, die geplant wirken statt aus unzusammenhängenden Szenen zusammengesetzt.

Multi‑Shot‑Storytelling‑Showcase der KI‑Video‑Generierung Feature 4

Warum Wan 2.6 API für Ihre Videos wählen

Wan 2.6 API hilft, konsistente Social‑Videos mit hoher Wirkung zu erstellen – ohne Studio, Editing‑Skills oder großes Budget.

Cinematische Qualität ohne Produktionsaufwand

Wan 2.6 API liefert scharfe 1080p Short‑Videos mit realistischem Motion-, Licht- und Physikverhalten, sodass Ihr Content näher an einem professionellen Shoot als an einer schnellen Vorlage wirkt. Statt Kameras, Schauspieler und Locations zu koordinieren, beschreiben Sie die Szenen einmal und lassen das Modell Animation, Timing und Audio übernehmen – so testen Sie pro Woche mehr Ideen.

Schnellere Iteration für TikTok, Reels und Ads

Short‑Form‑Plattformen belohnen ständiges Experimentieren, und die Wan 2.6 API ist für dieses Tempo gebaut. Sie können mehrere Versionen eines Konzepts generieren, nur Hook oder Background ändern und schnell sehen, was performt. Da alles über die API läuft, können Sie das in eigene Tools oder Flows automatisieren, statt manuell aus einem Editor zu exportieren und hochzuladen.

Konsistente Brand‑ und Character‑Stories

Die Wan 2.6 API hilft, Charaktere, Produkte und Worlds über Dutzende Clips konsistent zu halten – etwas, das mit One‑Off‑Stock‑Assets schwer ist. Durch Wiederverwendung von Prompts und Referenzen können Sie fortlaufende Stories rund um Mascot, Influencer oder Produktlinie erzählen, sodass Ihr Feed wie ein zusammenhängendes Universum wirkt statt wie eine zufällige Sammlung von Videos.

Wan 2.6 API Schritt für Schritt nutzen

Sie müssen kein Developer sein, um gute Prompts zu planen, aber die Wan 2.6 API macht es Teams leicht, Video‑Generierung in echte Produkte zu integrieren.

1

1. Evolink AI Account verbinden

Bei Evolink AI registrieren, Wan 2.6 API im Dashboard aktivieren und den API‑Key holen, den Ihre App oder Ihr Backend für sichere Video‑Requests nutzt.

2

2. Social‑Style‑Prompt oder Bild wählen

Schreiben Sie ein kurzes Briefing wie einen TikTok‑Hook plus Szenennotizen oder laden Sie ein Key Visual hoch und senden Sie es als Text‑to‑Video oder Image‑to‑Video an die Wan 2.6 API.

3

3. Video generieren, prüfen und veröffentlichen

Die Wan 2.6 API liefert den Clip nach der Verarbeitung zurück; Sie prüfen, speichern die besten Versionen und posten direkt auf Social oder nutzen sie in Ads.

Wan 2.6 API Features für Creator

Jedes Wan‑2.6‑Feature ist auf Social Media, UGC und SaaS‑Video‑Tools zugeschnitten, nicht auf Studio‑Workflows.

Sound‑on ready

Natives Audio und Lip‑Sync

Wan 2.6 API generiert Visuals und Sound gemeinsam, sodass Szenen mit Dialog, Ambiente und Musik bereits synchron zur Motion geliefert werden. Damit können Sie Sound‑on‑Clips direkt auf TikTok oder Reels posten, ohne separate Tracks zu suchen oder Voiceover frame‑genau zu matchen.

Story‑first output

Multi‑Shot‑Clips mit 5–15 Sekunden

Statt eines einzelnen Moments erzeugt der Wan‑2.6‑Generator Multi‑Shot‑Videos, die dem Storytelling auf Social entsprechen. Sie decken Hook, Produktdemo und Abschluss in einem Clip ab und liefern eine klare Message in wenigen Sekunden, bevor Nutzer weiterwischen.

Flexible inputs

Text‑, Bild‑ und Referenz‑Inputs

Wan 2.6 API arbeitet mit einfachem Text, Bildern oder Referenzvideos, sodass Sie mit dem starten können, was bereits vorliegt. Produktshots zu Motion machen, illustrierte Characters als Video‑Akteure nutzen oder einen bestehenden Clip in neue Szenen erweitern – bei konsistentem Stil und Branding über Feed und Kampagnen hinweg.

Simple controls

Creator‑freundliche Controls statt Tech‑Jargon

Statt Sie mit komplexen Settings zu überladen, fokussiert die Wan 2.6 API Controls, die Creator verstehen – z. B. Pacing, Mood und Kamerafeel. Technische Parameter können in Ihrer App verborgen werden, während Sie nur simple Slider oder Presets anbieten, damit nicht‑technische Teams on‑brand Videoideen ohne Training generieren.

Social‑first design

Optimiert für Social‑Media‑Formate

Die Wan 2.6 API ist auf Short‑Form‑Formate optimiert, sodass Clips auf vertikalen Feeds und mobilen Screens gut aussehen. Sie können Prompts um Hooks, Transitions und Call‑to‑Action‑Shots herum designen und sie kampagnenübergreifend wiederverwenden, um ein wiederholbares Video‑Playbook statt One‑Off‑Experimente aufzubauen.

Workflow‑ready

Einfache Integration in Apps und Workflows

Über Evolink AI lässt sich die Wan 2.6 API in SaaS‑Dashboards, Content‑Tools oder interne Automation integrieren, ohne Infrastruktur neu zu erfinden. Triggern Sie Generation aus Formularen, Queues oder No‑Code‑Tools, lassen Sie die API verarbeiten und senden Sie fertige Clips direkt in Storage, Editor oder Publishing‑Pipeline – mit minimalen manuellen Schritten.

Wan 2.6 API FAQs

Everything you need to know about the product and billing.

Wan 2.6 ist das neueste cinematische KI‑Videomodell von Alibabas Tongyi Wanxiang‑Team mit Multi‑Shot‑Storytelling, nativem Audio‑Sync, Lip‑Sync und bis zu 15‑Sekunden‑1080p‑Clips aus Text, Bildern oder Referenzen. Evolink AI stellt die Wan 2.6 API als schlanke Integrationsschicht bereit, sodass Entwickler und Creator das Modell in Apps, SaaS‑Tools oder Workflows nutzen können, ohne Alibaba‑Cloud‑Infrastruktur direkt zu managen. Ideal für Indie‑Builder, Marketer und Creator, die TikTok/Reels‑Ads und Short‑Form‑Content schnell und skalierbar produzieren wollen.
Mit dem Wan 2.6 KI‑Video‑Generator erstellen Sie story‑getriebene Clips, Produktdemos, UGC‑Explainer und kreative Szenen aus Text oder Bildern. Das Modell ist besonders stark bei kurzen 5–15‑Sekunden‑Narrativen mit weicher Kamerabewegung, nativem Sound und konsistenten Characters. Ideal für TikTok, Reels, YouTube Shorts, Social Ads und jede App, in der Nutzer dynamische Videos aus minimalem Input wollen.
Einfache Text‑zu‑Video‑Tools liefern oft nur einen statischen Shot mit generischer Motion und ohne integriertes Audio – danach müssen Sie alles schneiden und sound‑designen. Wan 2.6 API fokussiert Multi‑Shot‑Storytelling, glattere Physik und natives Audio, sodass Clips wie geplante Szenen wirken statt wie zufällige Tests. Zudem erhalten Sie mehr Kontrolle über Pacing, Viewpoint und Kontinuität, was wichtig ist, wenn Sie Clicks, Watch‑Time oder Conversions treiben wollen.
Ja, wenn jemand eine einfache Oberfläche oder ein Tool darum baut. Nach der Integration können Sie nur die Felder sichtbar machen, die Creator brauchen – etwa Prompt, Referenzbild, Seitenverhältnis und Videolänge. Creator tippen dann Anweisungen wie für eine Caption oder ein Skript, klicken auf Generate und erhalten fertige Clips für Veröffentlichung oder leichte Nachbearbeitung.
Wan 2.6 API ist gut geeignet für Social‑Ads und Brand‑Kampagnen, weil sie Qualität und Geschwindigkeit balanciert. Sie können viele visuelle Konzepte, Angles und Hooks prototypen, ohne Shootings oder Motion‑Designer zu buchen, und dann die besten Versionen promoten. Durch Wiederverwendung von Prompts und Referenzen bleiben Characters, Produktshots und Branding konsistent, auch wenn Sie verschiedene Storylines und Angebote testen.
Die Generierungszeit hängt von Länge und Traffic ab, aber Wan 2.6 API ist für Short‑Form‑Content gebaut, daher sind Clips meist in Minuten statt Stunden fertig. Das ist schnell genug für tägliche Content‑Kalender, reaktive Social‑Posts und automatisierte Video‑Workflows. Sie können mehrere Generierungen parallel über Evolink AI anstoßen, um höhere Veröffentlichungsfrequenzen zu unterstützen.
Die besten Wan‑2.6‑Prompts lesen sich wie Mini‑Shooting‑Briefings statt einzelner Tags. Nennen Sie Setting, Motiv, Kamera‑Stil und Ablauf in Reihenfolge und geben Sie Emotion oder Mood an. Zum Beispiel: Hook‑Shot, Main‑Action und Closing‑Frame mit Call‑to‑Action – so erzeugt der Wan‑2.6‑Generator klarere, besser anschaubare Stories.
Sie können die Wan 2.6 API über Evolink AI in SaaS, Automation oder Content‑Tools integrieren – Evolink übernimmt Routing, Skalierung und Monitoring. So bieten Sie In‑App‑Video‑Generation, bei der Nutzer Prompts tippen, Bilder hochladen und fertige Clips erhalten, ohne Ihr Produkt zu verlassen. Eine einfache Möglichkeit, moderne KI‑Video‑Funktionen hinzuzufügen und das Engineering auf Kernfeatures zu fokussieren.
POST
/v1/videos/generations

Create Video

WAN2.6 (wan2.6-image-to-video) model supports first-frame image-to-video generation.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.6-image-to-video

Model name.

Examplewan2.6-image-to-video
promptstringRequired

Prompt describing the video you want to generate.

Notes
  • Limited to 1500 characters
ExampleA cat playing piano
image_urlsarrayRequired

Reference image URL list for first-frame image-to-video generation.

Notes
  • Single request supports 1 image
  • Image size: no more than 10MB
  • Supported formats: .jpeg, .jpg, .png (transparent channel not supported), .bmp, .webp
  • Image resolution: width and height range is [360, 2000] pixels
  • Image URL must be directly accessible by the server
Examplehttps://example.com/image1.png
durationintegerOptionalDefault: 5

Specifies the duration of the generated video (in seconds).

ValueDescription
55 seconds duration
1010 seconds duration
1515 seconds duration
Notes
  • Each request will be pre-charged based on the duration value, actual charge is based on the generated video duration
Example5
qualitystringOptionalDefault: 720p

Video quality. 1080p costs 1.67x more than 720p.

ValueDescription
720pStandard definition, standard price (default)
1080pHigh definition, 1.67x price
Example720p
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting. When enabled, a large model will optimize the prompt, which significantly improves results for simple or insufficiently descriptive prompts.

ValueDescription
trueEnable intelligent prompt rewriting (default)
falseDisable intelligent prompt rewriting
Exampletrue
model_paramsobjectOptional

Model parameter configuration.

model_params.shot_typestringOptionalDefault: single

Specifies the shot type for the generated video.

ValueDescription
singleOutputs single-shot video (default)
multiOutputs multi-shot video
Notes
  • Only effective when prompt_extend is true
  • shot_type priority > prompt priority
Examplesingle
audio_urlstringOptional

Audio file URL. The model will use this audio to generate the video.

Notes
  • Supported format: mp3
  • Duration: 3-30 seconds
  • File size: up to 15MB
  • If audio exceeds video duration, only the first portion is used
  • If audio is shorter than video, the remaining portion will be silent
Examplehttps://example.com/audio.mp3
callback_urlstringOptional

HTTPS callback URL for task completion.

Notes
  • Triggered when task is completed, failed, or cancelled
  • Sent after billing confirmation
  • Only HTTPS protocol is supported
  • Callbacks to internal IP addresses are prohibited
  • URL length must not exceed 2048 characters
  • Timeout: 10 seconds, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.6-image-to-video",
  "prompt": "A cat playing piano",
  "image_urls": [
    "https://example.com/image1.png"
  ],
  "duration": 5,
  "quality": "720p",
  "prompt_extend": true,
  "model_params": {
    "shot_type": "single"
  }
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-7cvnl5zw",
  "model": "wan2.6-image-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 120
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_call",
    "credits_reserved": 5,
    "user_group": "default"
  }
}
Wan 2.6 API: KI-Video-Generator mit nativem Audio | Evolink AI