Zum Inhalt springen
Alle Levels ⏱ 30 Min. 🔨 runway-ml

Dein erster KI-Videoclip — mit Runway ML

Dein Ziel nach diesem Tutorial:

Du generierst heute noch deinen ersten KI-Videoclip und verstehst, wie du ihn für Social Media nutzt

Tutorial teilen:

Ein Foto, das zu leben beginnt. Wolken, die sich langsam durch den Himmel bewegen. Ein Wald, der atmet. Was früher ein Filmstudio, teure Ausrüstung und ein Team aus Spezialisten erforderte, geht jetzt mit einem einzigen Bild und einem Textprompt.

Runway ML macht genau das möglich — und dieser Guide zeigt dir, wie du heute noch deinen ersten cineastischen Videoclip erstellst.


Stufe 1: Anfänger — Dein erster Clip in 10 Minuten

Was ist Runway?

Runway ML ist die führende Plattform für KI-generierte Videos. Das Kernprodukt heißt Gen-4 und bietet zwei Hauptmodi: Text-to-Video und Image-to-Video. Du beschreibst eine Szene in Worten, oder du lädst ein Bild hoch — Runway generiert daraus einen Videoclip. Das Credit-System gibt dir mit dem kostenlosen Plan 125 Credits zum Ausprobieren (1 Sekunde Video ≈ 5 Credits, also rund 25 Sekunden Videomaterial).

Image-to-Video: Der empfohlene Einstieg

Der schnellste Weg zu guten Ergebnissen führt über Image-to-Video. Du steuerst das Ausgangsmotiv selbst — Runway animiert es.

Schritt für Schritt:

  1. Gehe auf runwayml.com und leg ein kostenloses Konto an
  2. Klick auf Gen-4 in der linken Navigation
  3. Wähle den Modus Image to Video
  4. Lade ein Bild hoch — ein gutes Foto aus deiner Kamera oder ein Midjourney-Bild funktionieren hervorragend
  5. Gib einen Motion-Prompt ein, der beschreibt, wie sich das Bild bewegen soll
  6. Klick Generate und warte 30–60 Sekunden
  7. Lade den fertigen Clip herunter
Motion-Prompt für Image-to-Video (Anfänger)
Die Kamera zoomt langsam rein, Wolken bewegen sich gleichmäßig, Blätter wehen leicht im Wind, cineastische Stimmung, ruhige atmosphärische Bewegung
Funktioniert mit Runway Gen-4

Credits sinnvoll einsetzen

Mit 125 kostenlosen Credits hast du etwa 25 Sekunden Videomaterial. Das klingt wenig, reicht aber für erste echte Ergebnisse. So gehst du sparsam vor:

  • Starte immer mit 5 Sekunden statt 10 — damit testest du den Stil, bevor du große Mengen Credits investierst
  • Wenn der erste Clip gut wirkt, generiere die 10-Sekunden-Version
  • Nutze Image-to-Video, nicht Text-to-Video für erste Tests — die Ergebnisse sind vorhersehbarer

5 oder 10 Sekunden? Wähle 5 Sekunden für Social-Media-Loops und kurze Snippets. 10 Sekunden eignen sich besser für Szenen mit mehr Bewegungsraum oder wenn du zwei Clips zu einem Übergang verbinden willst.


Image-to-Video Workflow

Dein Bildz.B. Midjourneyoder eigenes FotoRunway Gen-4+ Motion Prompt30–60 Sek. Generierung≈ 25–50 CreditsFertiger Videoclip5 oder 10 SekundenMP4 Download

Stufe 2: Fortgeschritten — Camera Motion und Motion Brush

Camera Motion: Cineastische Kamerabewegungen

Camera Motion ist einer der stärksten Hebel für professionell wirkende Ergebnisse. Du wählst aus vordefinierten Kamerabewegungen und bestimmst die Intensität:

BewegungWirkungIdeal für
Zoom InRückt an Motiv heranDramatische Enthüllungen
Zoom OutWeitet BlickLandschaften, Übersichten
Pan Left / RightSchwenk horizontalLandschaftspanoramen
Tilt Up / DownSchwenk vertikalGebäude, Türme, Bäume
OrbitKreisförmige Bewegung um MotivCharakterszenen
Text-to-Video mit Camera Motion Anweisung
Drohnenaufnahme über einen nebligen Herbstwald, langsamer Vorwärtsflug, Morgenlicht bricht durch Baumkronen, cinematisch, 4K-Stil, ruhige atmosphärische Stimmung, goldene Stunde
Funktioniert mit Runway Gen-4

Motion Brush: Kontrolle über Bewegung

Motion Brush ist das Werkzeug, wenn du präzise steuern willst, welche Teile des Bildes sich bewegen und welche stillstehen.

Schritt für Schritt:

  1. Lade dein Bild in Gen-4 (Image-to-Video Modus)
  2. Klick auf Motion Brush
  3. Male über die Bereiche, die sich bewegen sollen — zum Beispiel den Himmel oder Wasser
  4. Male mit einer anderen Farbe (oder dem “still”-Brush) über Bereiche, die stillbleiben sollen
  5. Generiere den Clip

Wenn das Video unerwünschte Bewegung zeigt: Regeneriere nicht einfach — geh zurück zum Motion Brush und male den problematischen Bereich als “still” ein. Oft sind es Hintergrundelemente, die unkontrolliert flackern.

Midjourney + Runway als Workflow

Die beste Kombination für konsistente Ergebnisse: Du erstellst das Ausgangsbild in Midjourney mit genau dem Motiv, der Lichtstimmung und dem Stil, den du dir vorstellst — und Runway animiert es.

Midjourney Prompt für ein Runway-taugliches Ausgangsbild
misty mountain valley at golden hour, soft morning light through pine trees, photorealistic, cinematic composition, 16:9 aspect ratio, still and atmospheric --ar 16:9 --v 6
Funktioniert mit Midjourney

Stufe 3: Experte — Komplette Social-Media-Videos

Clips aneinanderreihen: Das 30-Sekunden-Video

Ein einzelner Runway-Clip ist 5–10 Sekunden lang. Für ein vollständiges Social-Media-Video kombinierst du mehrere Clips in CapCut (kostenlos, Browser oder App).

Planungslogik für ein 30-Sekunden-Video:

  • Clip 1: Eröffnungsszene (5–10 Sek.)
  • Clip 2: Hauptmotiv, näher (5–10 Sek.)
  • Clip 3: Detailaufnahme oder Perspektivwechsel (5 Sek.)
  • Clip 4: Abschluss, Auszoomende Perspektive (5–10 Sek.)

Damit das Video kohärent wirkt, müssen die Clips visuell zueinanderpassen: gleiche Farbstimmung, ähnliche Bewegungsgeschwindigkeit, konsistente Ausgangsmotive.

Clip-Serie: Stimmungsvolles Waldvideo (30 Sekunden)
Clip 1 (Eröffnung): Weitwinkelaufnahme, Kamera zoomt langsam in einen herbstlichen Wald, Morgennebel, Licht fällt schräg zwischen Baumstämmen, ruhige Atmosphäre Clip 2 (Mittelteil): Bodenperspektive, Blätter fallen sanft, leichter Wind bewegt Äste, warmes goldenes Licht, Kamera bleibt still Clip 3 (Detail): Nahaufnahme auf einzelnes buntes Blatt, das sich im Wind dreht, scharfe Tiefenunschärfe im Hintergrund, impressionistisch Clip 4 (Abschluss): Vogelperspektive, Kamera zieht langsam nach oben zurück, Blick auf Walddach im Herbstlicht, cinematisch
Funktioniert mit Runway Gen-4

Act One: Deine Mimik auf KI-Charaktere übertragen

Act One ist Runways Performance Capture Feature: Du nimmst dich selbst mit der Webcam auf — Runway überträgt deine Gesichtsausdrücke und Kopfbewegungen auf einen KI-Charakter. Kein Schauspieler-Budget, kein Motion-Capture-Studio. Besonders spannend für Content Creator, die animierte Charaktere für ihr Branding nutzen wollen.

Der komplette Produktions-Pipeline

Midjourney + Runway + CapCut + SUNO ergibt einen vollständig kostenlosen (oder sehr günstigen) Workflow für professionell wirkende Social-Media-Videos:

Was Runway nicht gut kann: Sei ehrlich mit dir über die Grenzen. Runway ist nicht ideal für präzisen Lippensync bei echtem Dialog, lange kohärente Storylines, realistische Menschengesichter in Nahaufnahme und Textdarstellung im Video. Nutze Runway für Atmosphäre, Natur, abstrakte Bewegung und cineastische Establishing Shots.

Kostenplanung für ein 30-Sekunden-Video:

  • 4 Clips × 10 Sekunden = 40 Sekunden Video
  • 40 Sekunden × 5 Credits/Sek. = 200 Credits
  • Kostenloser Plan: 125 Credits (reicht für ca. 2–3 Clips zum Testen)
  • Standard-Abo (~12 $/Monat): 625 Credits pro Monat — genug für mehrere vollständige Videos

Kompletter Video-Produktions-Workflow

MidjourneyAusgangsbildgenerierenRunwayBild animieren5–10 Sek. ClipsCapCutClips schneiden+ Texte einfügenSUNOKI-MusikhinzufügenSocialMedia

Häufige Fragen

Reichen die 125 kostenlosen Credits zum Ausprobieren?

Ja — 125 Credits entsprechen etwa 25 Sekunden Videomaterial. Das ist genug für 2–5 erste Clips und ein ehrliches Gefühl dafür, ob Runway für deinen Anwendungsfall passt. Starte mit kurzen 5-Sekunden-Clips, um Credits zu sparen.

Wie steht Runway im Vergleich zu Sora oder Kling?

OpenAIs Sora ist bisher nur eingeschränkt verfügbar und teurer. Kling (von Kuaishou) ist ein starker chinesischer Wettbewerber mit ähnlichen Fähigkeiten, hat aber weniger westliche Community und Tutorials. Runway bleibt die zugänglichste Plattform mit der größten Dokumentation und Creator-Community.

Darf ich Runway-Videos kommerziell verwenden?

Mit dem kostenlosen Plan darfst du Clips nur für private, nicht-kommerzielle Zwecke nutzen. Ab dem Standard-Abo (~12 $/Monat) erhältst du kommerzielle Nutzungsrechte für deine generierten Videos.

In welcher Auflösung werden die Videos generiert?

Runway Gen-4 generiert Videos in bis zu 1080p. Die genaue Auflösung hängt vom gewählten Plan und der Seitenverhältnis-Einstellung ab. Für Social Media (TikTok, Instagram Reels) ist 9:16 im Hochformat wählbar.

Kann Runway Voiceover oder Sprache ins Video einbauen?

Nein — Runway generiert nur die visuelle Bewegung. Für Voiceover kombinierst du den Runway-Clip in CapCut mit einer separaten Audiospur (eigene Aufnahme oder ein TTS-Tool). Lippensync ist technisch möglich, aber noch nicht zuverlässig genug für produktiven Einsatz.

Wie lange dauert eine Generierung?

Typischerweise 30–90 Sekunden für einen 5-Sekunden-Clip, je nach Serverauslastung. Zu Stoßzeiten kann es länger dauern. Der kostenlose Plan hat niedrigere Priorität als bezahlte Pläne.


Dein nächster Schritt

Du hast jetzt das Handwerkszeug für deinen ersten KI-Videoclip — von Image-to-Video über Motion Brush bis zum kompletten Social-Media-Workflow mit Midjourney, Runway, CapCut und SUNO.

Runway öffnet eine Tür, die vor Kurzem noch Filmbudgets erforderte. Eine atmosphärische Reels-Sequenz für deinen Account. Ein stimmungsvoller Clip für einen Podcast-Teaser. Ein animiertes Intro für deinen YouTube-Kanal.

Dein erster Clip ist 10 Minuten entfernt. Öffne runwayml.com, lade ein Bild hoch, kopiere den Motion-Prompt aus Stufe 1 — und generiere. Danach kannst du mit dem Quiz unten prüfen, wie viel wirklich hängengeblieben ist.


Wie gut kennst du Runway jetzt?

10 Fragen — von Credits und Clip-Längen bis zu Motion Brush und Act One. Wer mindestens 8 richtig beantwortet, bekommt ein Zertifikat zum Teilen.

Runway-Quiz
1 / 10

Was ist Runway ML?