HappyHorse 1.0 kommt baldMehr erfahren

Wan 2.6 API

Verwandeln Sie Ideen, Skripte oder statische Bilder mit der Wan 2.6 API in cinematic Clips, optimiert für schnellen Social-Media-Content und Creator-Workflows.

Preis: $0.075 - 0.125(~ 5.1 - 8.52 credits) per second of video

Höchste Stabilität mit garantierter 99,9% Verfügbarkeit. Empfohlen für Produktionsumgebungen.

Für alle Versionen wird derselbe API-Endpunkt verwendet. Nur der model-Parameter unterscheidet sich.

37 (suggested: 2,000)

Upload reference images

Click to upload or drag and drop

Supported formats: JPG, JPEG, PNG, WEBP
Maximum file size: 10MB; Maximum files: 10

5s
2s15s

Click Generate to see preview

Verlauf

Max. 20 Einträge

0 läuft · 0 abgeschlossen

Ihre Generierungshistorie erscheint hier

Wan 2.6 API für Cinematic Short‑Form Video

Nutzen Sie die Wan 2.6 API, um aus Text oder Bildern 1080p Multi-Shot-Clips (bis zu 15 Sekunden) mit Audio-Ausgabe laut aktueller Route-Dokumentation zu erzeugen – fertig für TikTok, Reels, YouTube Shorts und Ad Creatives, ohne einen Video-Editor anzufassen.

Wan 2.6 KI-Videogenerierungs-Showcase der Produktkategorie Feature 1

Pricing

WAN 2.6 Image to Video
Video Generation
quality:720p
Price:
$0.075/ second
(5.1 Credits)
WAN 2.6 Image to Video
Video Generation
quality:1080p
Price:
$0.125/ second
(8.517 Credits)

If it's down, we automatically use the next cheapest available—ensuring 99.9% uptime at the best possible price.

Was Sie mit der Wan 2.6 API machen können

Neuester cinematic Text-zu-Video Einstiegspunkt

Die Wan 2.6 API ist der neueste Cinematic-Tier in der Wan-Familie – gebaut für narrative Szenen, die bis zu 15 Sekunden Multi-Shot-Motion brauchen (2–15 s für Text/Bild, 2–10 s für Referenzvideo), nicht nur einen einzelnen statischen Beat. Geben Sie ein kurzes Skript oder Szenen-Brief ein, und der Wan 2.6 KI-Video-Generator handhabt Framing, Kamerabewegungen, Übergänge und Audio-Ausgabe gemeinsam, sodass das Ergebnis wie eine geplante Shot-List wirkt statt wie ein einmaliges Rendering. Das ist der Einstiegspunkt, den Teams nutzen, wenn das Brief näher an einer Brand-Kampagne als an einem täglichen UGC-Clip liegt.

Text zu Video Showcase der KI-Videogenerierungs-Produktkategorie Feature 2

Bild und Referenz zu Video

Mit der Wan 2.6 API können Sie von einem bestehenden Bild oder Referenzvideo aus starten und es zu einer bewegten Szene erweitern, die denselben Character, Stil oder Produkt-Look beibehält. Das ist ideal, wenn Sie bereits Brand-Visuals oder einen Hero-Shot haben und diesen ohne Neuaufnahme in dynamischen Social-Content animieren wollen, während Farben, Outfits und Framing über mehrere Clips hinweg konsistent bleiben.

Bild zu Video Showcase der KI-Videogenerierungs-Produktkategorie Feature 3

Multi‑Shot‑Storytelling für Social Media

Die Wan 2.6 API ist für kurze, storygetriebene Videos gebaut statt für zufällige Einzelshots. Sie können mehrere Beats in einem Prompt beschreiben, und das Modell generiert eine bis zu 15 Sekunden lange Multi-Shot-Sequenz (2–15 s für Text-/Bild-Inputs) mit kohärenter Motion und Physik. So lassen sich Trending-Formate, UGC-Style-Explainer-Clips und narrative Ads erstellen, die geplant wirken statt aus unzusammenhängenden Szenen zusammengesetzt.

Multi Shot Storytelling Showcase der KI-Videogenerierungs-Produktkategorie Feature 4

Warum die Wan 2.6 API für Ihre Videos wählen

Die Wan 2.6 API hilft Ihnen, konsistente, wirkungsvolle Social Videos ohne Studio, Editing-Skills oder großes Budget zu erstellen.

Cinematic Qualität ohne Produktions-Aufwand

Die Wan 2.6 API liefert Ihnen scharfe 1080p Short-Videos mit realistischer Motion, Lighting und Physik, sodass Ihr Content näher an einem professionellen Shoot wirkt als an einem schnellen Template. Statt Kameras, Darsteller und Locations zu koordinieren, beschreiben Sie die Szenen einmal und lassen das Modell Animation, Timing und Audio übernehmen – so haben Sie Zeit, pro Woche mehr Ideen zu testen.

Premium-Iteration für narrative Kampagnen

Wan 2.6 ist für den Kampagnenzyklus gebaut – für die Momente, in denen Sie premium cinematic Output wollen, der ein Brand-Budget rechtfertigt. Sie können Multi-Shot-Konzepte iterieren, Hooks oder Szenen zwischen Versionen austauschen und Wan 2.6 Flash für High-Volume A/B-Durchläufe nutzen, bevor Sie den Standard-Tier für den finalen Hero-Clip einsetzen. Der Mix aus Standard- und Flash-Varianten lässt ein Kampagnen-Brief sowohl Exploration als auch Final Delivery abdecken, ohne die Wan 2.6-Familie zu verlassen.

Konsistente Marken- und Character-Storys

Die Wan 2.6 API hilft, Ihre Characters, Produkte und Welten über Dutzende Clips hinweg konsistent zu halten, was mit einmaligen Stock-Assets schwer ist. Indem Sie Prompts und Referenzen wiederverwenden, können Sie fortlaufende Storys rund um dasselbe Maskottchen, denselben Influencer oder dieselbe Produktlinie erzählen, sodass Ihr Feed wie ein verbundenes Universum wirkt und nicht wie eine zufällige Sammlung von Videos.

So nutzen Sie die Wan 2.6 API Schritt für Schritt

Sie müssen kein Entwickler sein, um gute Prompts zu planen, aber die Wan 2.6 API macht es Teams leicht, Videogenerierung in echte Produkte einzubinden.

1

1. Verbinden Sie Ihr Evolink AI-Konto

Registrieren Sie sich bei Evolink AI, aktivieren Sie die Wan 2.6 API in Ihrem Dashboard und holen Sie sich den API Key, den Ihre App oder Ihr Backend für sichere Video-Requests nutzt.

2

2. Schreiben Sie einen Social‑Style-Prompt oder wählen Sie ein Bild

Schreiben Sie ein kurzes Brief wie einen TikTok-Hook plus Szenen-Notizen oder laden Sie ein Key Visual hoch, und senden Sie es dann über die Wan 2.6 API als Text‑zu‑Video oder Bild‑zu‑Video.

3

3. Generieren, prüfen und veröffentlichen Sie Ihr Video

Die Wan 2.6 API liefert Ihren Clip nach der Verarbeitung; Sie prüfen ihn, speichern die besten Versionen und posten direkt in Ihre Social-Kanäle oder nutzen sie in Ads.

Wan 2.6 API Features für Creator

Jedes Wan 2.6 API Feature ist auf Social Media, UGC und SaaS-Video-Tools abgestimmt, nicht auf Studio-Workflows.

Audio-Ausgabe

Audio-Ausgabe parallel zum Video laut aktueller Route-Dokumentation

Die Wan 2.6 API ist auf narrative Szenen getunt, in denen Dialog, Ambient Sound und Score parallel zum Bild stehen. Laut aktueller Route-Dokumentation wird die Audio-Ebene parallel zu den Visuals generiert, sodass auch längere Multi-Shot-Sequenzen mit Audio zurückkommen, statt eines separaten Silent-Renderings, das einen zweiten Pass braucht.

Story‑first Output

Multi‑Shot Clips bis zu 15 Sekunden

Statt eines einzelnen zufälligen Moments erzeugt der Wan 2.6 KI-Video-Generator Multi-Shot-Videos, die dem entsprechen, wie Menschen auf Social-Plattformen tatsächlich Geschichten erzählen. Sie können Hook, Produkt-Demo und Schlussszene in einem Clip abdecken, was es viel einfacher macht, eine klare Botschaft in den wenigen Sekunden zu vermitteln, die Sie haben, bevor Zuschauer weiterwischen.

r2v Referenzvideo

Text-, Bild- und Referenzvideo-Inputs (r2v)

Wan 2.6 fügt Referenzvideo (`wan2.6-r2v`) als First-Class-Input neben Text-zu-Video (`wan2.6-t2v`) und Bild-zu-Video (`wan2.6-i2v`) hinzu. Mit Referenzvideo können Sie Erscheinung und visuelle Identität eines Characters aus einem bestehenden Clip extrahieren und in neue Szenen übernehmen – nützlich für episodische Brand-Maskottchen, wiederkehrende Sprecher oder jede Kampagne, die dieselbe On-Screen-Identität über mehrere Shoots hinweg braucht, ohne neu zu casten. Beachten Sie, dass die Referenzvideo-Abrechnung einer separaten Input-plus-Output-Dauer-Logik folgt, mit einem 1080p-Qualitätsmultiplikator, planen Sie es also als eigenen Line Item statt es in Standard-Text-zu-Video-Budgets einzugruppieren.

Einfache Kontrollen

Creator‑freundliche Kontrollen, kein Tech-Jargon

Statt Sie in komplexen Settings zu vergraben, fokussiert die Wan 2.6 API auf Kontrollen, die Creator tatsächlich verstehen, wie Pacing, Stimmung und Kamera-Feel. Sie können technische Parameter in Ihrer App verstecken und nur einfache Slider oder Presets anzeigen, was nicht-technischen Team-Mitgliedern hilft, on-brand Video-Ideen ohne Schulung zu generieren.

Social‑first Design

Optimiert für Social-Media-Formate

Die Wan 2.6 API ist auf Short-Form-Formate getunt, was es unkompliziert macht, Clips zu generieren, die auf vertikalen Feeds und Mobile-Screens gut aussehen. Sie können Prompts rund um Hooks, Übergänge und Call-to-Action-Shots entwerfen und sie dann über Kampagnen und Kanäle hinweg wiederverwenden, um ein wiederholbares Video-Playbook aufzubauen – keine einmaligen Experimente.

Async Orchestrierung

Async Multi-Variant Orchestrierung für Kampagnenarbeit

Die Wan 2.6 API auf Evolink AI ist um Async-Task-Patterns herum gebaut, was Sie brauchen, wenn ein Kampagnen-Brief mehrere Multi-Shot-Varianten parallel generiert und dann gemeinsam reviewt haben will. Sie können die Variantengenerierung über den Standard Wan 2.6 Tier und Wan 2.6 Flash fächern, fertige Clips in Ihre Review-Pipeline sammeln, sobald Tasks abgeschlossen sind, und nur die Hero-Version zum Publishing freigeben – statt eine einzige Render-Queue sowohl Exploration als auch Final Delivery machen zu lassen.

Entdecken Sie die Wan API-Familie

Wan 2.6 ist der neueste cinematic Tier mit Multi-Shot-Storytelling und Referenzvideo. Sehen Sie, wie Wan 2.6 neben Wan 2.5 für tägliche Content-Produktion und Wan Image für Text-zu-Bild-Workflows passt.

Wan 2.6 API FAQs

Everything you need to know about the product and billing.

Wan 2.6 ist das neueste cinematic KI-Videogenerierungsmodell, entwickelt vom Tongyi Wanxiang-Team von Alibaba, mit Multi-Shot-Storytelling, Audio-Ausgabe laut aktueller Route-Dokumentation und bis zu 15-Sekunden-1080p-Clips aus Text, Bildern oder Referenzen (2–15 s für Text-zu-Video und Bild-zu-Video, 2–10 s für Referenzvideo). Evolink AI stellt die Wan 2.6 API als optimierten Integrations-Layer bereit und macht es Entwicklern und Creatorn leichter, dieses mächtige Modell in ihre Apps, SaaS-Tools oder Workflows aufzurufen, ohne Alibaba Cloud-Infrastruktur direkt zu verwalten. Sie ist ideal für Indie-Entwickler, die Video-Features bauen, für Marketer, die TikTok/Reels-Ads erstellen, und für Creator, die Short-Form-Content schnell und im großen Stil produzieren.
Alibaba hat frühere Wan-Releases wie Wan 2.1 als Open Source veröffentlicht, während Wan 2.6 als API-zugängliches Modell auf Alibabas DashScope und Model Studio dokumentiert ist. Stand April 2026 haben wir keine offizielle Alibaba-Quelle gefunden, die Wan 2.6 selbst als Open Source bestätigt, prüfen Sie daher für den aktuellsten Status bitte Alibabas offizielle Ankündigungen. Um Wan 2.6 heute zu nutzen, können Sie es über die Wan 2.6 API auf Evolink AI aufrufen, ohne Alibaba Cloud-Infrastruktur direkt zu verwalten.
Wan 2.6 Flash ist eine schnellere Variante des Wan 2.6 Videogenerierungs-Lineups, optimiert für kürzere Inferenzzeit bei niedrigeren Kosten pro Sekunde. Es eignet sich gut für High-Volume, iterative Workflows wie A/B-Tests von Social-Ad-Hooks, das Generieren mehrerer Varianten desselben Prompts oder das Antreiben von In-App-Video-Features, bei denen Latenz wichtiger ist als die absolut höchste Qualität. Die Standard Wan 2.6 API ist die richtige Wahl, wenn Sie den vollen cinematic Output wollen, während Wan 2.6 Flash die richtige Wahl ist, wenn Sie Geschwindigkeit und Unit Economics wollen.
Mit dem Wan 2.6 KI-Video-Generator können Sie story-getriebene Clips, Produkt-Demos, UGC-artige Explainer und fantasievolle Szenen aus Text oder Bildern erstellen. Das Modell ist besonders stark bei kurzen narrativen Videos mit bis zu 15 Sekunden Länge (2–15 s für Text/Bild, 2–10 s für Referenzvideo), mit flüssiger Kamerabewegung, Audio-Ausgabe laut aktueller Route-Dokumentation und konsistenten Characters. Das macht es ideal für TikTok, Reels, YouTube Shorts, Social Ads und jede App, in der User dynamisches Video aus minimalem Input wollen.
Einfache Text‑zu‑Video-Tools geben oft einen einzelnen statischen Shot mit generischer Motion und ohne integriertes Audio aus, sodass Sie alles nachträglich editieren und sound-designen müssen. Die Wan 2.6 API fokussiert auf Multi-Shot-Storytelling, glattere Physik und Audio-Ausgabe parallel zum Video laut aktueller Route-Dokumentation, sodass Ihre Clips eher wie geplante Szenen wirken als wie zufällige KI-Tests. Sie erhalten außerdem mehr Kontrolle über Pacing, Viewpoint und Continuity, was wichtig ist, wenn Sie Klicks, Watch Time oder Conversions treiben wollen.
Ja, nicht-technische Creator können ebenfalls von der Wan 2.6 API profitieren, solange jemand ein einfaches Interface oder Tool darum herum aufsetzt. Einmal integriert, können Sie nur die Felder anzeigen, die Creator interessieren, wie Prompt, Referenzbild, Seitenverhältnis und Videolänge. Von dort aus tippen sie einfach Anweisungen, wie sie es für eine Caption oder ein Skript tun würden, klicken auf Generieren und erhalten fertige Clips, die sie posten oder vor dem Veröffentlichen leicht bearbeiten können.
Die Wan 2.6 API ist gut für Social-Media-Ads und Brand-Kampagnen geeignet, weil sie Qualität und Geschwindigkeit ausbalanciert. Sie können viele visuelle Konzepte, Blickwinkel und Hooks prototypen, ohne Shoots oder Motion Designer zu buchen, und dann die Versionen promoten, die am besten performen. Indem Sie Prompts und Referenz-Assets wiederverwenden, halten Sie Characters, Produkt-Shots und Brand-Styling konsistent, selbst wenn Sie verschiedene Storylines und Angebote testen.
Die Generierungszeit hängt von Länge und Traffic ab, aber die Wan 2.6 API ist für Short-Form-Content ausgelegt, sodass Clips typischerweise in Minuten statt Stunden fertig sind. Diese Turnaround-Zeit ist schnell genug, um tägliche Content-Kalender, reaktive Social Posts und automatisierte Videoerstellungs-Flows zu unterstützen. Sie können mehrere Generierungen parallel über Evolink AI anfordern, um mit höheren Publishing-Frequenzen Schritt zu halten.
Die besten Wan 2.6 Prompts lesen sich wie Mini-Shooting-Briefs statt wie einzelne Tag-Wörter. Erwähnen Sie das Setting, das Subjekt, den Kamerastil und was der Reihe nach passiert, und fügen Sie die Emotion oder Stimmung hinzu, die Zuschauer fühlen sollen. Zum Beispiel können Sie den Opening-Hook, den Haupt-Action-Shot und den Closing-Frame mit Call-to-Action beschreiben, was dem Wan 2.6 KI-Video-Generator hilft, klarere, sehenswertere Storys für Ihr Publikum zu produzieren.
Sie können die Wan 2.6 API über Evolink AI in Ihre SaaS-, Automatisierungs- oder Content-Tools integrieren, das Routing, Skalierung und Monitoring für Sie übernimmt. So können Sie in-app-Videogenerierungs-Features anbieten, bei denen User Prompts tippen, Bilder hochladen und gebrauchsfertige Clips erhalten, ohne Ihr Produkt zu verlassen. Es ist ein unkomplizierter Weg, moderne KI-Video-Fähigkeiten hinzuzufügen, während Ihr eigenes Engineering-Team auf Kernfeatures fokussiert bleibt.
POST
/v1/videos/generations

Create Video

WAN2.6 (wan2.6-image-to-video) model supports first-frame image-to-video generation.

Asynchronous processing mode, use the returned task ID to .

Generated video links are valid for 24 hours, please save them promptly.

Request Parameters

modelstringRequiredDefault: wan2.6-image-to-video

Model name.

Examplewan2.6-image-to-video
promptstringRequired

Prompt describing the video you want to generate.

Notes
  • Limited to 1500 characters
ExampleA cat playing piano
image_urlsarrayRequired

Reference image URL list for first-frame image-to-video generation.

Notes
  • Single request supports 1 image
  • Image size: no more than 10MB
  • Supported formats: .jpeg, .jpg, .png (transparent channel not supported), .bmp, .webp
  • Image resolution: width and height range is [360, 2000] pixels
  • Image URL must be directly accessible by the server
Examplehttps://example.com/image1.png
durationintegerOptionalDefault: 5

Specifies the duration of the generated video (in seconds). Supports 2-15 seconds.

Notes
  • Range: 2-15 seconds (any integer)
  • Each request will be pre-charged based on the duration value, actual charge is based on the generated video duration
Example5
qualitystringOptionalDefault: 720p

Video quality. 1080p costs 1.67x more than 720p.

ValueDescription
720pStandard definition, standard price (default)
1080pHigh definition, 1.67x price
Example720p
prompt_extendbooleanOptionalDefault: true

Whether to enable intelligent prompt rewriting. When enabled, a large model will optimize the prompt, which significantly improves results for simple or insufficiently descriptive prompts.

ValueDescription
trueEnable intelligent prompt rewriting (default)
falseDisable intelligent prompt rewriting
Exampletrue
model_paramsobjectOptional

Model parameter configuration.

model_params.shot_typestringOptionalDefault: single

Specifies the shot type for the generated video.

ValueDescription
singleOutputs single-shot video (default)
multiOutputs multi-shot video
Notes
  • Only effective when prompt_extend is true
  • shot_type priority > prompt priority
Examplesingle
audio_urlstringOptional

Audio file URL. The model will use this audio to generate the video.

Notes
  • Supported format: mp3
  • Duration: 3-30 seconds
  • File size: up to 15MB
  • If audio exceeds video duration, only the first portion is used
  • If audio is shorter than video, the remaining portion will be silent
Examplehttps://example.com/audio.mp3
callback_urlstringOptional

HTTPS callback URL for task completion.

Notes
  • Triggered when task is completed, failed, or cancelled
  • Sent after billing confirmation
  • Only HTTPS protocol is supported
  • Callbacks to internal IP addresses are prohibited
  • URL length must not exceed 2048 characters
  • Timeout: 10 seconds, Max 3 retries
Examplehttps://your-domain.com/webhooks/video-task-completed

Request Example

{
  "model": "wan2.6-image-to-video",
  "prompt": "A cat playing piano",
  "image_urls": [
    "https://example.com/image1.png"
  ],
  "duration": 5,
  "quality": "720p",
  "prompt_extend": true,
  "model_params": {
    "shot_type": "single"
  }
}

Response Example

{
  "created": 1757169743,
  "id": "task-unified-1757169743-7cvnl5zw",
  "model": "wan2.6-image-to-video",
  "object": "video.generation.task",
  "progress": 0,
  "status": "pending",
  "task_info": {
    "can_cancel": true,
    "estimated_time": 120
  },
  "type": "video",
  "usage": {
    "billing_rule": "per_call",
    "credits_reserved": 5,
    "user_group": "default"
  }
}
Wan 2.6 API: Cinematic KI-Video-Generator | Evolink AI