Ein Foto, das zu leben beginnt. Wolken, die sich langsam durch den Himmel bewegen. Ein Wald, der atmet. Was früher ein Filmstudio, teure Ausrüstung und ein Team aus Spezialisten erforderte, geht jetzt mit einem einzigen Bild und einem Textprompt.
Runway ML macht genau das möglich — und dieser Guide zeigt dir, wie du heute noch deinen ersten cineastischen Videoclip erstellst.
Stufe 1: Anfänger — Dein erster Clip in 10 Minuten
Was ist Runway?
Runway ML ist die führende Plattform für KI-generierte Videos. Das Kernprodukt heißt Gen-4 und bietet zwei Hauptmodi: Text-to-Video und Image-to-Video. Du beschreibst eine Szene in Worten, oder du lädst ein Bild hoch — Runway generiert daraus einen Videoclip. Das Credit-System gibt dir mit dem kostenlosen Plan 125 Credits zum Ausprobieren (1 Sekunde Video ≈ 5 Credits, also rund 25 Sekunden Videomaterial).
Image-to-Video: Der empfohlene Einstieg
Der schnellste Weg zu guten Ergebnissen führt über Image-to-Video. Du steuerst das Ausgangsmotiv selbst — Runway animiert es.
Schritt für Schritt:
- Gehe auf runwayml.com und leg ein kostenloses Konto an
- Klick auf Gen-4 in der linken Navigation
- Wähle den Modus Image to Video
- Lade ein Bild hoch — ein gutes Foto aus deiner Kamera oder ein Midjourney-Bild funktionieren hervorragend
- Gib einen Motion-Prompt ein, der beschreibt, wie sich das Bild bewegen soll
- Klick Generate und warte 30–60 Sekunden
- Lade den fertigen Clip herunter
Credits sinnvoll einsetzen
Mit 125 kostenlosen Credits hast du etwa 25 Sekunden Videomaterial. Das klingt wenig, reicht aber für erste echte Ergebnisse. So gehst du sparsam vor:
- Starte immer mit 5 Sekunden statt 10 — damit testest du den Stil, bevor du große Mengen Credits investierst
- Wenn der erste Clip gut wirkt, generiere die 10-Sekunden-Version
- Nutze Image-to-Video, nicht Text-to-Video für erste Tests — die Ergebnisse sind vorhersehbarer
5 oder 10 Sekunden? Wähle 5 Sekunden für Social-Media-Loops und kurze Snippets. 10 Sekunden eignen sich besser für Szenen mit mehr Bewegungsraum oder wenn du zwei Clips zu einem Übergang verbinden willst.
Image-to-Video Workflow
Stufe 2: Fortgeschritten — Camera Motion und Motion Brush
Camera Motion: Cineastische Kamerabewegungen
Camera Motion ist einer der stärksten Hebel für professionell wirkende Ergebnisse. Du wählst aus vordefinierten Kamerabewegungen und bestimmst die Intensität:
| Bewegung | Wirkung | Ideal für |
|---|---|---|
| Zoom In | Rückt an Motiv heran | Dramatische Enthüllungen |
| Zoom Out | Weitet Blick | Landschaften, Übersichten |
| Pan Left / Right | Schwenk horizontal | Landschaftspanoramen |
| Tilt Up / Down | Schwenk vertikal | Gebäude, Türme, Bäume |
| Orbit | Kreisförmige Bewegung um Motiv | Charakterszenen |
Motion Brush: Kontrolle über Bewegung
Motion Brush ist das Werkzeug, wenn du präzise steuern willst, welche Teile des Bildes sich bewegen und welche stillstehen.
Schritt für Schritt:
- Lade dein Bild in Gen-4 (Image-to-Video Modus)
- Klick auf Motion Brush
- Male über die Bereiche, die sich bewegen sollen — zum Beispiel den Himmel oder Wasser
- Male mit einer anderen Farbe (oder dem “still”-Brush) über Bereiche, die stillbleiben sollen
- Generiere den Clip
Wenn das Video unerwünschte Bewegung zeigt: Regeneriere nicht einfach — geh zurück zum Motion Brush und male den problematischen Bereich als “still” ein. Oft sind es Hintergrundelemente, die unkontrolliert flackern.
Midjourney + Runway als Workflow
Die beste Kombination für konsistente Ergebnisse: Du erstellst das Ausgangsbild in Midjourney mit genau dem Motiv, der Lichtstimmung und dem Stil, den du dir vorstellst — und Runway animiert es.
Stufe 3: Experte — Komplette Social-Media-Videos
Clips aneinanderreihen: Das 30-Sekunden-Video
Ein einzelner Runway-Clip ist 5–10 Sekunden lang. Für ein vollständiges Social-Media-Video kombinierst du mehrere Clips in CapCut (kostenlos, Browser oder App).
Planungslogik für ein 30-Sekunden-Video:
- Clip 1: Eröffnungsszene (5–10 Sek.)
- Clip 2: Hauptmotiv, näher (5–10 Sek.)
- Clip 3: Detailaufnahme oder Perspektivwechsel (5 Sek.)
- Clip 4: Abschluss, Auszoomende Perspektive (5–10 Sek.)
Damit das Video kohärent wirkt, müssen die Clips visuell zueinanderpassen: gleiche Farbstimmung, ähnliche Bewegungsgeschwindigkeit, konsistente Ausgangsmotive.
Act One: Deine Mimik auf KI-Charaktere übertragen
Act One ist Runways Performance Capture Feature: Du nimmst dich selbst mit der Webcam auf — Runway überträgt deine Gesichtsausdrücke und Kopfbewegungen auf einen KI-Charakter. Kein Schauspieler-Budget, kein Motion-Capture-Studio. Besonders spannend für Content Creator, die animierte Charaktere für ihr Branding nutzen wollen.
Der komplette Produktions-Pipeline
Midjourney + Runway + CapCut + SUNO ergibt einen vollständig kostenlosen (oder sehr günstigen) Workflow für professionell wirkende Social-Media-Videos:
Was Runway nicht gut kann: Sei ehrlich mit dir über die Grenzen. Runway ist nicht ideal für präzisen Lippensync bei echtem Dialog, lange kohärente Storylines, realistische Menschengesichter in Nahaufnahme und Textdarstellung im Video. Nutze Runway für Atmosphäre, Natur, abstrakte Bewegung und cineastische Establishing Shots.
Kostenplanung für ein 30-Sekunden-Video:
- 4 Clips × 10 Sekunden = 40 Sekunden Video
- 40 Sekunden × 5 Credits/Sek. = 200 Credits
- Kostenloser Plan: 125 Credits (reicht für ca. 2–3 Clips zum Testen)
- Standard-Abo (~12 $/Monat): 625 Credits pro Monat — genug für mehrere vollständige Videos
Kompletter Video-Produktions-Workflow
Häufige Fragen
Reichen die 125 kostenlosen Credits zum Ausprobieren?
Ja — 125 Credits entsprechen etwa 25 Sekunden Videomaterial. Das ist genug für 2–5 erste Clips und ein ehrliches Gefühl dafür, ob Runway für deinen Anwendungsfall passt. Starte mit kurzen 5-Sekunden-Clips, um Credits zu sparen.
Wie steht Runway im Vergleich zu Sora oder Kling?
OpenAIs Sora ist bisher nur eingeschränkt verfügbar und teurer. Kling (von Kuaishou) ist ein starker chinesischer Wettbewerber mit ähnlichen Fähigkeiten, hat aber weniger westliche Community und Tutorials. Runway bleibt die zugänglichste Plattform mit der größten Dokumentation und Creator-Community.
Darf ich Runway-Videos kommerziell verwenden?
Mit dem kostenlosen Plan darfst du Clips nur für private, nicht-kommerzielle Zwecke nutzen. Ab dem Standard-Abo (~12 $/Monat) erhältst du kommerzielle Nutzungsrechte für deine generierten Videos.
In welcher Auflösung werden die Videos generiert?
Runway Gen-4 generiert Videos in bis zu 1080p. Die genaue Auflösung hängt vom gewählten Plan und der Seitenverhältnis-Einstellung ab. Für Social Media (TikTok, Instagram Reels) ist 9:16 im Hochformat wählbar.
Kann Runway Voiceover oder Sprache ins Video einbauen?
Nein — Runway generiert nur die visuelle Bewegung. Für Voiceover kombinierst du den Runway-Clip in CapCut mit einer separaten Audiospur (eigene Aufnahme oder ein TTS-Tool). Lippensync ist technisch möglich, aber noch nicht zuverlässig genug für produktiven Einsatz.
Wie lange dauert eine Generierung?
Typischerweise 30–90 Sekunden für einen 5-Sekunden-Clip, je nach Serverauslastung. Zu Stoßzeiten kann es länger dauern. Der kostenlose Plan hat niedrigere Priorität als bezahlte Pläne.
Dein nächster Schritt
Du hast jetzt das Handwerkszeug für deinen ersten KI-Videoclip — von Image-to-Video über Motion Brush bis zum kompletten Social-Media-Workflow mit Midjourney, Runway, CapCut und SUNO.
Runway öffnet eine Tür, die vor Kurzem noch Filmbudgets erforderte. Eine atmosphärische Reels-Sequenz für deinen Account. Ein stimmungsvoller Clip für einen Podcast-Teaser. Ein animiertes Intro für deinen YouTube-Kanal.
Dein erster Clip ist 10 Minuten entfernt. Öffne runwayml.com, lade ein Bild hoch, kopiere den Motion-Prompt aus Stufe 1 — und generiere. Danach kannst du mit dem Quiz unten prüfen, wie viel wirklich hängengeblieben ist.
Wie gut kennst du Runway jetzt?
10 Fragen — von Credits und Clip-Längen bis zu Motion Brush und Act One. Wer mindestens 8 richtig beantwortet, bekommt ein Zertifikat zum Teilen.