Einführung von WaveSpeedAI LTX 2.3 Video Extend auf WaveSpeedAI
LTX-2.3 ist ein DiT-basiertes Audio-Video-Grundlagenmodell, das entwickelt wurde, um synchronisierte Videos und Audios innerhalb eines einzigen Modells zu generieren, mit verbesserter Audio- und Bildqualität
Videos nahtlos verlängern mit LTX-2.3 Video Extend
Überzeugende Videoinhalte zu erstellen bedeutet oft, mit Clips zu arbeiten, die nur ein paar Sekunden zu kurz sind. Vielleicht endete deine Drohnenaufnahme, bevor die Landschaft sich vollständig enthüllte, oder deine Produktdemo braucht noch ein paar mehr Sekunden, um die Botschaft zu vermitteln. Bisher bedeutete das Verlängern von Videomaterial entweder ein erneutes Drehen, umständliche Schnitt-Workarounds oder das Akzeptieren abrupter Schnitte.
LTX-2.3 Video Extend ändert das grundlegend. Dieses Modell ist jetzt auf WaveSpeedAI verfügbar und generiert zusätzliche Frames, die dein vorhandenes Filmmaterial auf natürliche Weise fortsetzen — mit so nahtloser Übereinstimmung von Bewegung, Stil und Atmosphäre, dass Zuschauer nicht erkennen können, wo das Original endet und die Verlängerung beginnt.
Was ist LTX-2.3 Video Extend?
LTX-2.3 Video Extend basiert auf dem LTX-2.3-Grundmodell, einer DiT-basierten (Diffusion Transformer) Architektur, die für hochwertige Videogenerierung mit starker zeitlicher Konsistenz entwickelt wurde. Während die breitere LTX-2.3-Familie Text-zu-Video- und Bild-zu-Video-Funktionen umfasst, konzentriert sich die Video-Extend-Variante auf eine spezifische und äußerst praktische Aufgabe: einen vorhandenen Videoclip zu nehmen und neue Frames zu generieren, die den Inhalt auf natürliche Weise fortsetzen.
Lade ein Video hoch, gib an, wie viele zusätzliche Sekunden du benötigst (zwischen 1 und 20), und beschreibe optional, wie sich die Szene entwickeln soll. Das Modell analysiert die Bewegungsmuster, den visuellen Stil, die Beleuchtung und die Komposition deines Quellmaterials und generiert dann eine Fortsetzung, die natürlich aus dem letzten Frame herausfließt.
Das Ergebnis ist verlängertes Filmmaterial, das den Charakter des Originalvideos bewahrt — Kamerabewegungen setzen ihre Trajektorie fort, Objekte behalten ihren Schwung, und Umgebungsdetails bleiben konsistent.
Hauptfunktionen
-
Zeitliche Konsistenz: Das Modell generiert nicht nur plausible Frames — es generiert Frames, die kohärente Fortsetzungen deines spezifischen Quellvideos darstellen. Bewegungstrajektorien, Beleuchtungsveränderungen und Szenendynamiken werden auf natürliche Weise fortgeführt.
-
Flexible Dauersteuerung: Verlängere deine Videos um nur 1 Sekunde oder bis zu 20 Sekunden pro Generierung. Diese granulare Kontrolle ermöglicht es dir, genau das hinzuzufügen, was du brauchst, ohne Ressourcen zu verschwenden.
-
Optionale Prompt-Steuerung: Während das Modell Videos ohne Texteingabe verlängern kann, kannst du Prompts bereitstellen, die beschreiben, wie sich die Szene entwickeln soll. Soll die Kamera nach links schwenken? Eine Person anfangen zu gehen? Beschreibe es, und das Modell integriert deine Angaben in die Fortsetzung.
-
Integrierter Prompt-Enhancer: Nicht sicher, wie du die gewünschte Fortsetzung beschreiben sollst? Der integrierte Prompt-Enhancer verfeinert automatisch deine Beschreibungen für bessere Ergebnisse.
-
Keine Cold Starts auf WaveSpeedAI: Das Modell ist immer bereit. Sende deine Anfrage und erhalte Ergebnisse, ohne auf das Hochfahren von Infrastruktur warten zu müssen — entscheidend, wenn du an kreativen Projekten arbeitest und schnelle Feedback-Schleifen benötigst.
Praxisnahe Anwendungsfälle
Social Media und Kurzform-Content
Ein 4-Sekunden-Clip eines Sonnenuntergangs ist wunderschön, aber scrollt auf Instagram oder TikTok zu schnell vorbei. Verlängere ihn auf 15 Sekunden, und du hast einen vollständigen Beitrag, der die Aufmerksamkeit hält. Content-Creator können kurze Momente, die mit dem Smartphone aufgenommen wurden, ohne Nachdrehen in polierte, vollständige Videos verwandeln.
Film- und Videoproduktion
B-Roll ist das Rückgrat professioneller Videos, und es gibt nie genug davon. Verlängere Establishing Shots, Landschaftsaufnahmen oder atmosphärische Clips, um Lücken in deinem Schnitt zu füllen. Ein 3-Sekunden-Drohnenüberflug wird zu einer 20-Sekunden-Sequenz, die einen gesamten Szenenwechsel trägt.
Produktdemos und Marketing
Produktvideos benötigen präzises Timing, um mit Voiceovers und On-Screen-Text zu synchronisieren. Wenn ein Clip zu kurz ist, verhindert das Verlängern um ein paar Sekunden awkward Pausen oder Sprungschnitte. Dies ist besonders nützlich für E-Commerce-Produktpräsentationen, bei denen fließendes, kontinuierliches Filmmaterial das Käufervertrauen stärkt.
Loop-Erstellung
Generiere zusätzliche Frames, um die Lücke zwischen dem Ende und dem Anfang eines Videos zu überbrücken, und erstelle so nahtlose Loops für digitale Beschilderung, Hintergrundvideos auf Websites oder Ambient-Displays.
Storytelling und Animation
Animatoren und digitale Geschichtenerzähler können Schlüsselszenen verlängern und Momenten mehr Raum geben. Eine Reaktionsaufnahme einer Figur, eine dramatische Pause oder eine langsame Enthüllung können alle gestreckt werden, um der Erzählung zu dienen — ohne zusätzliche manuelle Frame-Arbeit.
Erste Schritte auf WaveSpeedAI
Der Einstieg erfordert nur ein paar Zeilen Code mit dem WaveSpeed Python SDK:
import wavespeed
output = wavespeed.run(
"wavespeed-ai/ltx-2.3/video-extend",
{
"video": "https://your-video-url.com/clip.mp4",
"duration": 10,
"prompt": "The camera continues to push forward through the forest as sunlight filters through the canopy"
},
)
print(output["outputs"][0])
Das war’s. Keine Infrastruktur zu konfigurieren, keine GPU-Instanzen zu verwalten, keine Cold-Start-Verzögerungen. Du lieferst das Video und die Parameter, WaveSpeedAI erledigt den Rest.
Preisgestaltung
LTX-2.3 Video Extend verwendet eine unkomplizierte Abrechnung pro Sekunde:
| Verlängerungsdauer | Kosten |
|---|---|
| 1 Sekunde | $0,10 |
| 5 Sekunden | $0,50 |
| 10 Sekunden | $1,00 |
| 20 Sekunden | $2,00 |
Bei $0,10 pro Sekunde kannst du frei experimentieren — teste eine 1-Sekunden-Verlängerung, um den Ansatz zu validieren, und skaliere dann auf längere Dauern, sobald du mit der Richtung zufrieden bist.
Tipps für beste Ergebnisse
- Klares Quellmaterial bereitstellen: Videos mit definierter Bewegungsrichtung und konsistenter Beleuchtung geben dem Modell das stärkste Signal für die Fortsetzung.
- Klein anfangen, dann groß werden: Teste mit einer 2-3-Sekunden-Verlängerung, bevor du dich für eine 20-Sekunden-Generierung entscheidest. Das ermöglicht schnelles und kostengünstiges Iterieren.
- Beschreibende Prompts verwenden: Auch wenn Prompts optional sind, verbessern sie die Ergebnisse erheblich. Beschreibe Kamerabewegungen, das Verhalten von Personen und Umgebungsveränderungen.
- An Bewegungstrajektorie denken: Das Modell glänzt, wenn es eine klare Richtung gibt, die fortgesetzt werden kann — eine sich bewegende Kamera, eine gehende Person, fließendes Wasser oder treibende Wolken.
Erweitere deine kreativen Möglichkeiten
LTX-2.3 Video Extend beseitigt einen der hartnäckigsten Reibungspunkte in der Videoproduktion: die Einschränkung durch feste Clip-Längen. Ob du ein Solo-Creator bist, der Smartphone-Aufnahmen in polierte Inhalte verwandelt, oder ein Produktionsteam, das sorgfältig aufgenommenes B-Roll verlängert — das Modell liefert natürliche, kohärente Fortsetzungen zu einem Preis, der Experimente praktikabel macht.
Probiere LTX-2.3 Video Extend noch heute auf WaveSpeedAI und verwandle deine kurzen Clips in das Filmmaterial, das du wirklich brauchst.





