WaveSpeedAI LTX 2.3 Text-to-Video LoRA jetzt auf WaveSpeedAI
LTX-2.3 mit LoRA-Unterstützung ist ein DiT-basiertes Audio-Video-Grundlagenmodell, das darauf ausgelegt ist, synchronisierte Video- und Audioinhalte mit benutzerdefinierten Stilen, Bewegungen oder Charakterähnlichkeiten zu generieren
LTX-2.3 Text-to-Video mit LoRA-Unterstützung jetzt auf WaveSpeedAI
Die Grenze zwischen Vorstellung und Video war noch nie so dünn. Heute freuen wir uns, die Verfügbarkeit von LTX-2.3 Text-to-Video mit LoRA-Unterstützung auf WaveSpeedAI bekannt zu geben — ein Modell, das nicht nur Video aus Text generiert, sondern es dir ermöglicht, es mit eigenen Stilen, Charakteren und Bewegungen durch leichtgewichtige LoRA-Adapter nach deiner Vision zu gestalten.
Ob du eine Markenidentität aufbaust, einen wiederkehrenden Charakter animierst oder Inhalte mit einem unverwechselbaren cinematischen Look erstellst — LTX-2.3 mit LoRA gibt dir die Kontrolle, die generische Videogenerierungsmodelle schlicht nicht bieten können.
Was ist LTX-2.3 Text-to-Video LoRA?
LTX-2.3 ist die neueste Weiterentwicklung von Lightricks’ LTX-Modellfamilie — ein auf Diffusion Transformer (DiT) basierendes Grundmodell, das in einem einzigen Durchlauf synchronisiertes Video und Audio aus einem einzelnen Text-Prompt generiert. Keine separate Audio-Produktionspipeline. Keine Nachbearbeitungs-Workarounds. Du beschreibst eine Szene und erhältst sowohl die Visuals als auch den Ton.
Was dieses Release besonders leistungsstark macht, ist die Ergänzung durch LoRA-Unterstützung (Low-Rank Adaptation). LoRA-Adapter sind leichtgewichtige, trainierbare Module, die auf dem Basismodell aufsetzen und dessen Ausgabe auf bestimmte Stile, Charaktere oder Bewegungsmuster lenken. Du kannst bis zu drei LoRA-Adapter gleichzeitig stapeln und dabei individuelle Ästhetik mit der vollen Generierungskraft von LTX-2.3 verbinden.
Das Ergebnis: ein Modell, das sowohl universell einsetzbar als auch tiefgreifend anpassbar ist.
Hauptfunktionen
Verbesserte Bild- und Audioqualität
LTX-2.3 wird mit einem vollständig neu konzipierten VAE (Variational Autoencoder) ausgeliefert, der auf hochwertigeren Daten trainiert wurde. Feine Texturen, Haare, Textüberlagerungen und Kantendetails sind schärfer und realistischer als in früheren Versionen. Auf der Audioseite wurden die Trainingsdaten auf Stille-Lücken, Rauschen und Artefakte gefiltert, und ein neuer Vocoder liefert saubereren, zuverlässigeren Sound mit besserer Abstimmung auf den visuellen Inhalt.
Verbesserte Prompt-Treue
Ein neuer Gated-Attention-Text-Connector sorgt dafür, dass deine Prompts genauer befolgt werden. Beschreibungen von Timing, Bewegung, Ausdruck und Audio-Hinweisen werden direkt in die generierte Ausgabe übertragen — und verringern die Lücke zwischen dem, was du schreibst, und dem, was du siehst.
LoRA-Anpassung
Wende bis zu drei LoRA-Adapter pro Generierung an, jeder mit einstellbarer Skalierung. Das ermöglicht dir:
- Einen visuellen Stil festlegen — cinematische Looks, Anime-Ästhetik, Marken-Farbpaletten
- Charakterkonsistenz wahren — wiederkehrende Gesichter, Figuren oder Maskottchen über Clips hinweg
- Individuelle Bewegungsmuster trainieren — charakteristische Bewegungen, Kameratechniken, Choreografie
- Adapter kombinieren — einen Charakter-LoRA mit einem Stil-LoRA und einem Bewegungs-LoRA in einer einzigen Generierung schichten
Flexible Ausgabeoptionen
- Auflösungen: 480p für schnelle Iteration, 720p für ausgewogene Qualität, 1080p für die finale Ausgabe
- Dauer: Clips von 5 bis 20 Sekunden generieren
- Synchronisiertes Audio: Sound wird zusammen mit dem Video in einem einzigen Modell-Durchlauf generiert, mit der Möglichkeit, Audio durch Prompt-Hinweise wie „Regen an einem Fenster”, „schwungvoller Jazz” oder „jubelnde Menge” zu steuern
Transparente, planbare Preisgestaltung
Jede Generierung hat klare Kosten basierend auf Auflösung und Dauer:
| Auflösung | 5 Sek. | 10 Sek. | 15 Sek. | 20 Sek. |
|---|---|---|---|---|
| 480p | $0,15 | $0,30 | $0,45 | $0,60 |
| 720p | $0,20 | $0,40 | $0,60 | $0,80 |
| 1080p | $0,25 | $0,50 | $0,75 | $1,00 |
Keine Überraschungen. Keine versteckten Rechenkosten.
Praxisnahe Anwendungsfälle
Markeninhalte in großem Maßstab
Marketing-Teams können einen LoRA auf die visuelle Identität ihrer Marke trainieren — Logo-Behandlungen, Farbpaletten, Motion-Graphics-Stil — und anschließend markenkonformen Videoinhalt allein aus Textbeschreibungen generieren. Benötigst du 20 Variationen einer Produktvorstellung? Schreib die Prompts, wende den Marken-LoRA an und generiere.
Charaktergetriebenes Storytelling
Creator, die Serien oder Kampagnen rund um einen bestimmten Charakter aufbauen, können einen Ähnlichkeits-LoRA aus Referenzclips trainieren. Jedes neue Video behält dasselbe Charakteraussehen bei und macht episodische Inhalte und Social-Media-Serien visuell konsistent — ohne manuelle Nachbearbeitung.
Erstellung von Social-Media-Inhalten
Der Dauerbereich von 5 bis 20 Sekunden passt perfekt zu Kurzform-Inhalten für TikTok, Instagram Reels und YouTube Shorts. Generiere aufmerksamkeitsstarke Clips mit synchronisiertem Audio direkt aus einem kreativen Brief, iteriere bei 480p und rendere dann die endgültige Version bei 1080p.
Schnelles Prototyping und Konzeptvisualisierung
Agenturen und Studios können Text-to-Video-Generierung nutzen, um Konzepte für Kundenpräsentationen schnell zu visualisieren. Beschreib die Szene, wende einen cinematischen Stil-LoRA an und erstelle in Minuten statt Tagen eine ausgefeilte Vorschau.
Motion Design und VFX-Erkundung
Trainiere LoRAs auf spezifische Kamerabewegungen — Tracking-Shots, Dolly-Zooms, sanfte Schwenks — und wende sie auf jede Szene an. Das gibt Motion Designern einen Ausgangspunkt, der bereits ihrer beabsichtigten cinematischen Sprache entspricht.
Erste Schritte auf WaveSpeedAI
Die Generierung deines ersten Videos erfordert nur wenige Zeilen Code:
import wavespeed
output = wavespeed.run(
"wavespeed-ai/ltx-2.3/text-to-video-lora",
{
"prompt": "A lone astronaut walks across a crimson desert under twin suns, wind howling across the dunes, cinematic tracking shot",
"loras": [
{"path": "your-style-lora-url", "scale": 0.8}
],
"resolution": "720p",
"duration": 10,
},
)
print(output["outputs"][0])
Der Betrieb auf WaveSpeedAI bedeutet keine Cold Starts — deine Anfrage trifft auf eine warme GPU und beginnt sofort mit der Generierung. Kombiniert mit erschwinglichen Kosten pro Generierung und einer unkomplizierten REST-API kannst du die Videogenerierung in Produktions-Workflows integrieren, ohne Infrastruktur-Overhead.
Profi-Tipps für beste Ergebnisse
- Günstig iterieren: Beginne bei 480p, um deinen Prompt und deine LoRA-Kombination zu verfeinern, und rendere dann die endgültige Version bei 1080p
- Präzise mit Audio sein: Füge Audio-Hinweise in deinen Prompt ein — „sanfte Klaviermusik”, „brechende Wellen”, „Schritte auf Kies” — für bewusstere Klanglandschaften
- Feste Seeds verwenden: Wenn du Prompt-Variationen oder LoRA-Skalierungen vergleichst, fixiere den Seed, um zu isolieren, was sich tatsächlich ändert
- LoRAs strategisch stapeln: Kombiniere einen Stil-Adapter mit einem Bewegungs-Adapter für Ergebnisse, die keiner allein erreichen könnte, und passe die Skalierung beider an, um die richtige Balance zu finden
Das große Bild
Die KI-Videogenerierung hat 2026 eine Schwelle überschritten. Was einst eine Kuriosität war, die verschwommene, sekundenlange Clips produzierte, hat sich zu einem produktionsreifen Werkzeug entwickelt, das cinematische Qualität mit kohärenter Bewegung und synchronisiertem Audio liefert. LTX-2.3 mit LoRA-Unterstützung stellt den nächsten Schritt in dieser Entwicklung dar: nicht nur bessere Basisqualität, sondern die Fähigkeit, das Modell zu deinem zu machen.
Individuelle LoRAs verwandeln ein universelles Videomodell in ein spezialisiertes kreatives Werkzeug, das deine Marke, deine Charaktere und deine Ästhetik versteht. Das ist der Unterschied zwischen dem Generieren generischer Inhalte und dem Generieren von deinen Inhalten.
Fang heute an zu erschaffen
LTX-2.3 Text-to-Video mit LoRA-Unterstützung ist jetzt auf WaveSpeedAI verfügbar. Besuche die Modellseite, um die API zu erkunden, deine erste Generierung auszuführen und zu sehen, was möglich ist, wenn du modernste Videogenerierung mit der Präzision individueller LoRA-Adapter kombinierst.
Dein Text. Dein Stil. Dein Video.





