Seedance 2.0 Prompt-Vorlage: Copy-Paste-Framework für Bewegung, Kamera und Stil
Ein praktisches Prompt-Framework für Seedance 2.0 mit Shot-Sprache, Bewegungseinschränkungen, Negativ-Prompts und 5 bewährten Vorlagen.
Möchten Sie cinematische Videos wie Seedance 2.0 erstellen? Probieren Sie den WaveSpeed Cinematic Video Generator aus, um jetzt sofort cinematische Videos in Seedance 2.0-Qualität zu erstellen.
Hey, ich bin Dora. Eine Kleinigkeit hat mich dazu gebracht: Ich hatte immer wieder knappe Misserfolge. Das Material sah fast so aus wie gewünscht, driftete aber beim dritten Shot in eine andere Stimmung ab. Ich brauchte keine weiteren Funktionen. Ich brauchte eine konstantere Art, mit dem Modell zu kommunizieren. In einigen Sessions von Januar bis Februar 2026 habe ich daher ein Seedance 2.0-Prompt-Template erstellt, das ich wiederverwenden konnte, ohne jede Generierung zu überwachen.
Prompt-Anatomie zur Reduzierung von Drift (Subjekt → Aktion → Kamera → Stil → Einschränkungen)
Den größten Fortschritt brachte mir das Festlegen einer strikten Reihenfolge und das konsequente Einhalten dieser. Wenn ich Prompts wie einen Satz schrieb, lief Seedance 2.0 beim ersten Beat gut, verlor sich dann aber. Wenn ich sie wie eine Ausfüllkarte schrieb, sank der Drift deutlich.
Hier ist die fünfteilige Struktur, die ich jetzt verwende:
- Subjekt: Wer oder was die Szene betrifft, möglichst singular.
- Aktion: Was das Subjekt tut, in einfacher Sprache.
- Kamera: Wie wir es sehen – Bildgröße + Bewegung + Objektivhinweis bei Bedarf.
- Stil: Der Look, keine Stimmungsliste. Eine Ankerreferenz schlägt sechs Adjektive.
- Einschränkungen: Was fixiert bleiben soll, was ausgeschlossen wird und das Timing.
Warum diese Reihenfolge in der Praxis funktioniert:
- Subjekt zuerst verankert das Modell an einem Schwerpunkt. Wenn ich oben mehrere Subjekte erwähne, teilt das Modell später die Aufmerksamkeit.
- Aktion danach ist der kinetische Anker. Es teilt dem Modell mit, was sich bewegen muss, auch wenn sich der Stil verändert.
- Kamera legt dann die Kompositionslogik fest, damit das Modell nicht alle paar Sekunden das Objektiv „neu entscheidet”.
- Stil am Ende des Stapels fügt Geschmack hinzu, ohne die Aktion zu überwältigen.
- Einschränkungen zuletzt wirken wie Leitplanken, besonders bei Farbe, Beleuchtung und Händen/Gesichtern.
Ein kompaktes Seedance 2.0-Prompt-Template, das ich jedes Mal kopiere:
Subjekt: [eine Person/ein Objekt, Alter oder Material falls relevant]
Aktion: [spezifischer Verbausdruck, Präsens]
Kamera: [Bildgröße] + [Bewegung] + [Winkel], [ungefähre Brennweite oder „weit/normal/tele”]
Stil: [ein visueller Anker: Film/Prozess/Künstler], [Beleuchtung], [Farbbehandlung]
Einschränkungen: [Verbotsliste], [Bildrate/Tempo], [Dauer oder Beat-Timing], [Konsistenzhinweise]
Ein Beispiel, das über drei Cuts stabil blieb:
- Subjekt: Keramikbecher Anfang 30er-Jahre auf einer Werkbank, matteweiß
- Aktion: Dampf steigt auf, während eine Hand den Becher ins Bild schiebt und pausiert
- Kamera: Halbnahe, langsames Dolly-in, Augenhöhe, Normalobjektiv
- Stil: Weiches Morgenfensterlicht, subtiles Filmkorn, gedämpfte Palette
- Einschränkungen: Keine Logos, keine Textüberlagerungen, keine Schnellzooms, Hand 2 Sekunden ruhig halten
Was sich für mich verändert hat: weniger überraschende Umrahmungen. Vorher bat ich um „gemütlich, Handkamera, Morgenlicht” und bekam beim ersten Take ein Push-in, beim zweiten ein wackeliges Schwenken. Das Template hielt das Objektivverhalten stabil, ohne dass ich jeden Schritt kontrollieren musste.
Bewegungs- und Kameravokabular, das Ergebnisse wirklich verändert
Ich habe aufgehört, Stimmungswörter als Kamerawörter zu verwenden. „Dynamisch” bedeutet einem Objektiv nichts. Konkrete Bewegungshinweise schon. Als ich vage Prompts durch präzise ersetzte, wirkte die Bewegung in Seedance 2.0 intentionaler.
Das deckt sich mit der Beschreibung der Bewegungs- und Kamerasemantik in der öffentlichen technischen Übersicht zu Seedance 2.0, wo Kamerabewegung als erstklassiges Konditionierungssignal behandelt wird und nicht als nachträglicher Stilzusatz.
Was in Tests gut funktioniert hat:
- Bewegungswörter, die an Rig-Metaphern gebunden sind: Dolly, Tracking, Kran, Handkamera, Gimbal. „Handkamera” fügte Mikrowackeln hinzu, „Gimbal” blieb ruhig.
- Geschwindigkeit als Skalar: langsam, mittel, schnell, kombiniert mit Distanz („langsames Dolly-in, 30–60 cm”). Selbst grobe Zahlen halfen.
- Bildgröße zuerst: Weit / Mittel / Nah fixiert die Komposition. Das Modell hört auf, Gesichter mitten im Take neu zu zentrieren.
- Winkel mit Zweck: Augenhöhe für neutral, Untersicht für Präsenz, Aufsicht für Verletzlichkeit oder Überblick.
- Objektivhinweise als Kategorien: Weitwinkel (24–28-mm-Gefühl), Normal (35–50-mm-Gefühl), Tele (85-mm+-Gefühl). Ich vermeide genaue Millimeterangaben, außer wenn nötig.
Ich habe auch festgestellt, dass das Kombinieren zweier Bewegungsverben das Modell ins Chaos treibt. Ein Verb pro Shot hielt alles sauber. Wenn ich eine zusammengesetzte Bewegung brauchte (z. B. Schwenk + Dolly), schrieb ich es in Beats: „Start: langsames Dolly-in. Dann: sanftes Schwenken nach rechts für die letzten 2 Sekunden.” Seedance respektierte die Abfolge besser, als wenn ich beides in eine Klausel gepresst hätte.
Spickzettel für Shot-Listen (weit/mittel/nah, Schwenk/Dolly/Handkamera)
- Weit: Raum und Kontext etablieren. Gut für Produkt-in-Umgebung oder Teamszenen. Mit langsamem Dolly oder festem Stativ kombinieren. Schnelle Schwenks vermeiden, außer Sie wollen Bewegungsunschärfe.
- Mittel: Subjekt + etwas Kontext. Sicher für Dialoge und UGC. Handkamera wirkt hier persönlich, Gimbal wirkt poliert.
- Nah: Detail und Emotion. Funktioniert mit kleinen Push-ins; Schwenks wirken abrupt. Teleobjektiv-Hinweise helfen hier, den Hintergrund weich zu halten.
- Schwenk: Seitliche Rotation. Zum Enthüllen angrenzender Informationen verwenden. Langsam halten, da er Bewegungsunschärfe verstärkt.
- Dolly/Tracking: Physische Bewegung auf/weg/neben dem Subjekt. Wirkt cinematisch, selbst bei niedriger Geschwindigkeit. Mein Standard für Produktaufnahmen.
- Handkamera: Leichtes Schwingen und Mikrowackeln. Ideal für UGC, riskant bei Textüberlagerungen.
Ich halte diese Liste in der Nähe meines Prompt-Fensters. Sie erinnert mich daran, eine klare Bewegung anstelle eines Stimmungsabsatzes zu wählen.
Checkliste für negative Prompts (was explizit verboten werden soll)
Verbote fühlten sich anfangs zu hart an, ersparten mir aber Wiederholungsaufnahmen. Das waren die häufigen Problemfälle in meinen Runs:
- Visuelles Rauschen: keine Textüberlagerungen, keine Wasserzeichen, keine schwebenden UI-Elemente, keine Linsenreflexe außer wenn angegeben
- Identitätsdrift: keine zusätzlichen Charaktere, keine Menschenmenge, keine Spiegel, die andere Personen reflektieren
- Kamerachaos: keine Schnellzooms, keine Peitschwenks, keine Dutch-Angles, keine Schnittsprünge
- Körper-Artefakte: keine zusätzlichen Finger, keine deformierten Hände, keine verzerrten Becher/Griffe, keine schmelzenden Kanten
- Branding: keine Logos, keine Etiketten, keine erkennbaren Marken
- Farbe/Grading: keine Neonbeleuchtung, kein starkes Teal/Orange, keine Cartoon-Sättigung
- Umgebung: kein Regen/Nebel/Rauch außer angegeben, kein Konfetti, keine Staubpartikel
- Audio/Text: Wenn Sie VO in der Post-Produktion hinzufügen, automatische Untertitel verbieten
Ich verwende nicht alle davon jedes Mal. Ich wähle 3–5 aus, die für die Szene relevant sind. Zu viele Negativanweisungen können das Bild stumpf machen. Wenn Artefakte nach zwei Versuchen bestehen bleiben, wechsle ich die Strategie: Ich passe die Subjektformulierung an oder vereinfache den Kamerahinweis, anstatt weitere Verbote hinzuzufügen.
5 Copy-Paste-Templates (UGC, Produktwerbung, Cinematisch, Talking Head, Montage)
Das sind keine Wundermittel – sie sind Ausgangspunkte. Ich füge eines ein, fülle die Klammern aus und spare mir den Rest meines Denkens für Timing und Musik.
- UGC (Smartphone-Feeling)
Subjekt: [Person, Altersbereich, Setting]
Aktion: [spricht locker über X, während er/sie Y tut]
Kamera: Mittel, Handkamera-Smartphone-Perspektive, leichtes Schwingen, Augenhöhe, Normalobjektiv-Gefühl
Stil: Natürliches Innenraumlicht, ungegradeter Look, leichte Bewegungsunschärfe
Einschränkungen: Keine Untertitel, keine Schnellzooms, Hände natürlich halten, 8–10 s, Hintergrund einfach halten
- Produktwerbung (sauber und stabil)
Subjekt: [Produktname/Material/Farbe]
Aktion: [dreht sich langsam / gleitet ins Bild / subtile Heldenpose]
Kamera: Nah bis Halbnah, langsames Dolly-in, festgehaltener Horizont, Normal-bis-Tele-Gefühl
Stil: Weiches Hauptlicht + sanftes Gegenlicht, neutrale Farbgebung, leichtes Filmkorn
Einschränkungen: Keine Logos/Etiketten, keine Reflexe, letztes Bild 2 s halten, 6–8 s gesamt
- Cinematisch (Stimmung zuerst, ohne Kontrolle zu verlieren)
Subjekt: [Charakter oder Ort]
Aktion: [spezifischer Beat: wartet, dreht sich um, atmet, tritt ins Licht]
Kamera: Weite Einstellung für 2 s, dann langsames Push zu Mittel, Gimbal-glatt, Augenhöhe
Stil: [einzelne Ankerreferenz, z. B. „bedecktes natürliches Licht, gedämpfte Blautöne”]
Einschränkungen: Keine Dutch-Angles, keine Menschenmenge, kein Neon, bewölkten Look beibehalten, 10–12 s
- Talking Head (stabil und lesbar)
Subjekt: [Sprecherbeschreibung]
Aktion: [spricht eine klare Zeile]
Kamera: Halbnah, festes Stativ oder sehr subtiles Dolly-in, Augenhöhe
Stil: Weiches Hauptlicht aus 45°, saubere Hintergrundtrennung, neutrale Farbgebung
Einschränkungen: Keine automatischen Untertitel, keine Peitschwenks, natürliche Hauttöne, 12–15 s, Blicklinie zentriert halten
- Montage (schnelle Beats ohne Chaos)
Subjekt: [Thema, z. B. „morgendliches Kaffeeritual”]
Aktion: Beat 1 [weiter Kontext], Beat 2 [Nahaufnahme Hände], Beat 3 [Dampfdetail], Beat 4 [Schluck]
Kamera: Je Beat 2 s, klare Bildgröße pro Beat, keine zusammengesetzten Bewegungen; Übergänge per Schnitt
Stil: Konsistentes Licht und Palette über alle Beats
Einschränkungen: Keine Textüberlagerungen, keine Geschwindigkeitsrampen, Tempo gleichmäßig halten, 8–10 s gesamt
Kleiner Hinweis aus dem Testen: Wenn ich eine scharfe Produktkante möchte, tausche ich „Handkamera” gegen „Dolly” aus, auch im UGC. Es wirkt ein kleines bisschen weniger authentisch, druckt aber sauberer für spätere Überlagerungen.
Wenn Sie Vokabularauffrischungen möchten, ist der StudioBinder-Leitfaden zu Bildgrößen praktisch, und ihre Übersicht zu Kamerabewegungen passt gut dazu, wie Modelle Bewegungswörter interpretieren.
Entscheidungsregeln – wann neu prompten vs. Referenz ändern
Wenn ein Run daneben liegt, versuche ich nicht zu taumeln. Ich gehe diesen kleinen Entscheidungsbaum durch:
- Wenn die Rahmung falsch ist, die Aktion aber stimmt: neu prompten. Kamera zuerst verschärfen (Bildgröße + eine Bewegung). Subjekt und Aktion identisch lassen.
- Wenn die Bewegung falsch wirkt (zu wackelig/schnell): neu prompten. „Handkamera” ↔ „Gimbal” tauschen und eine Geschwindigkeit festlegen. Stil noch nicht anfassen.
- Wenn Stil oder Farbe driften, während Bewegung und Rahmung stimmen: neu prompten. Die Stil-Zeile durch einen einzelnen, stärkeren Anker ersetzen und zusätzliche Adjektive entfernen.
- Wenn das Subjekt sich nach zwei Neu-Prompts weiter verändert (zusätzliche Personen, wechselnde Requisiten): Referenz ändern. Subjekt vereinfachen. Weniger Deskriptoren, ein Substantiv.
- Wenn Artefakte (Hände, Logos, seltsame Reflexe) über drei Versuche hinweg wiederkehren: Einschränkungen oder den Shot-Plan ändern. Manchmal kämpft eine Nahaufnahme gegen das Modell – einen Schritt zurück zur Mitteldistanz gehen.
Zeitlich gesehen: Ich erlaube mir zwei schnelle Neu-Prompts (unter 5 Minuten gesamt). Wenn ich denselben Fehler immer noch korrigiere, ändere ich die Referenzzeile oder die Shot-Wahl. Das hat mich davor bewahrt, eine Stunde mit dem Polieren einer schlechten Idee zu verbringen.
Warum es wichtig ist: Das Modell neigt dazu, die erste starke Anweisung zu beachten. Wenn diese falsch ist, werden Bearbeitungen nachgeordneter Zeilen es nicht retten.
Ein letzter Praxishinweis: Kürzere Prompts mit dieser Struktur schlagen lange, poetische um Längen. Meine besten Takes lagen bei unter 60 Wörtern plus Einschränkungen.
Möchten Sie cinematische Videos wie Seedance 2.0 erstellen? Probieren Sie den WaveSpeed Cinematic Video Generator aus, um jetzt sofort cinematische Videos in Seedance 2.0-Qualität zu erstellen.



