Modernes Python-Framework für Workflow-Orchestrierung und Hauptkonkurrent zu Apache Airflow. Statt DAG-Dateien definierst du Pipelines per Decorator (@flow, @task) — dasselbe Skript läuft lokal, in Docker oder Kubernetes. Prefect 3 (2024) brachte event-driven Automations und deutlich bessere Ergonomie. Open-Source-Server, dazu eine US-gehostete SaaS-Variante (Prefect Cloud).
Kosten: Self-Hosted (Prefect Server) kostenlos (Apache 2.0). Prefect Cloud: Hobby gratis (2 Nutzer, 1 Workspace, 5 Deployments, 500 Serverless-Minuten/Monat), Starter / Team / Pro auf Anfrage, Enterprise mit SSO, SCIM und PrivateLink
Stärken
- Decorator-Syntax (@flow, @task) — derselbe Python-Code läuft lokal, in Docker oder in Kubernetes ohne Umschreiben
- Open-Source unter Apache 2.0 — Prefect Server lässt sich vollständig selbst hosten, ohne Feature-Beschneidung gegenüber der Cloud-Variante
- Dynamische Pipelines: Tasks können zur Laufzeit erzeugt werden, kein statisches DAG-Schema nötig
- Hobby-Plan in Prefect Cloud ist großzügig — 500 Serverless-Minuten/Monat reichen für Prototyping und kleine Privatprojekte
- Saubere Web-UI mit Run-Historie, Logs, Schedules und event-basierten Automations — funktional gleich in Server und Cloud
Einschränkungen
- Prefect Cloud läuft ausschließlich in US-Regionen (cloud.prefect.io) — für DSGVO-strenge Branchen ist nur Self-Hosting eine saubere Option
- Kleineres Ökosystem als Airflow — weniger fertige Integrationen, weniger Stack-Overflow-Antworten, kleinere Talent-Pool
- Pricing für Starter/Team/Pro nicht öffentlich — du musst mit dem Vertrieb sprechen, um konkrete Zahlen zu bekommen
- Keine deutsche UI, kein deutschsprachiger Support — Dokumentation und Community sind englischsprachig
- Marktanteil deutlich unter Airflow — wenn du Engineers extern anwerben willst, sind Airflow-Skills häufiger zu finden
Passt gut zu
Wann ja, wann nein
Wann ja
- Du startest auf grüner Wiese und willst moderne Decorator-Syntax statt klassische DAG-Dateien
- Dein Team baut dynamische Pipelines, bei denen Tasks zur Laufzeit erzeugt werden — etwa Fan-Out auf Mandanten oder Dateien
- Du willst dieselbe Pipeline lokal entwickeln und in Produktion ausführen, ohne sie umzubauen
- Du suchst eine Open-Source-Orchestrierung mit ergonomischer Cloud-Option für Prototypen und kleine Projekte
Wann nein
- Du brauchst zwingend EU-Hosting für deine Managed-Variante — Prefect Cloud ist US-only, dann eher Airflow via AWS MWAA Frankfurt
- Dein Team hat bereits umfangreiches Airflow-Know-how und etabliertes Tooling — der Wechsel lohnt sich selten allein wegen Ergonomie
- Du willst eine Low-Code-Workflow-Automatisierung ohne Python-Kenntnisse — dann n8n oder Make
- Du brauchst ein riesiges Ökosystem fertiger Connector-Pakete wie bei Airflow
Kurzfazit
Prefect ist die modernste Antwort auf Apache Airflow im Bereich Workflow-Orchestrierung. Statt DAG-Dateien zu schreiben, dekorierst du normale Python-Funktionen mit @flow und @task — derselbe Code läuft lokal beim Entwickeln und in Produktion auf Kubernetes. Mit Prefect 3 (2024) sind event-driven Automations, dynamische Pipelines und saubere Observability hinzugekommen. Die Open-Source-Variante (Prefect Server) ist vollwertig nutzbar, die SaaS (Prefect Cloud) ist großzügig im Einstieg, aber nur in US-Regionen verfügbar. Wer auf grüner Wiese startet und Python-affin ist, bekommt mit Prefect eine ergonomischere Orchestrierung als mit Airflow — auf Kosten eines kleineren Ökosystems.
Für wen ist Prefect?
Data Engineers und ML-Engineers in jüngeren Teams: Wer 2024 oder 2025 eine neue Datenplattform aufbaut und nicht aus Bestandsgründen an Airflow gebunden ist, findet in Prefect die geradlinigere Entwicklererfahrung. Decorator-Syntax, dynamische Pipelines und das Fehlen einer harten Trennung zwischen DAG-Datei und Aufgabencode reduzieren die Einstiegshürde spürbar.
Python-affine Solo-Entwickler und kleine Teams: Der kostenlose Hobby-Plan von Prefect Cloud (2 Nutzer, 1 Workspace, 5 Deployments, 500 Serverless-Minuten/Monat) reicht für Prototypen, persönliche Projekte und kleine Side-Projects ohne jeden Cent Kosten — und ohne dass du dafür einen eigenen Server betreiben musst.
ML-Pipelines mit dynamischer Struktur: Wer Tasks zur Laufzeit aus einem Mandanten-, Datei- oder Modell-Set erzeugen will, profitiert von Prefects dynamischen Flows. In Airflow erfordert das umständlichen Workaround mit DynamicTaskMapping, in Prefect ist es Standardverhalten — du iterierst einfach in Python.
Plattform-Teams, die Open-Source mit ergonomischer SaaS-Option suchen: Prefect Server ist Apache 2.0 lizenziert und feature-vollständig. Du kannst lokal entwickeln, gegen die kostenlose Cloud testen und für Produktion entscheiden, ob Self-Hosting oder Cloud — ohne neuen Code-Pfad.
Weniger geeignet für: DSGVO-strenge Branchen, die zwingend EU-gehostete SaaS brauchen (Prefect Cloud ist US-only — dann lieber Airflow auf AWS MWAA in Frankfurt), Teams mit großen Airflow-Investments und etablierter Tooling-Landschaft, sowie Fachabteilungen ohne Python-Know-how — dafür sind n8n oder Make die richtigen Werkzeuge.
Preise im Detail
| Plan | Preis | Was du bekommst |
|---|---|---|
| Self-Hosted (Prefect Server) | 0 € (Apache 2.0) | Vollständige Software, alle Kern-Features. Eigene Infrastruktur, Updates, Backups übernimmst du selbst |
| Hobby (Cloud) | 0 USD | 2 Nutzer, 1 Workspace, 5 Deployments, 500 Serverless-Minuten/Monat, 7 Tage Run-Retention, Community-Support, 625 API-Calls/min |
| Starter (Cloud) | Auf Anfrage | Höhere Limits, mehr Workspaces und Deployments, längere Retention — konkrete Zahlen nur über Vertrieb |
| Team (Cloud) | Auf Anfrage | Object-level RBAC, Audit-Logs, erweiterte Automations, mehr Nutzer-Sitze |
| Pro (Cloud) | Auf Anfrage | Custom Work-Pools, mehr Concurrency, Advanced Observability, dediziertere Limits |
| Enterprise (Cloud) | Auf Anfrage (Jahresvertrag) | SSO, SCIM, IP-Allowlisting, PrivateLink, Sandbox-Umgebungen, dedizierter Support, AVV |
Einordnung: Der Hobby-Plan ist ehrlich nutzbar — keine Lockstufe, sondern eine Plattform für echte Prototypen. Wer ernsthaft in Produktion geht, stößt aber schnell an die 500 Serverless-Minuten oder die fünf Deployments. Auffällig: Prefect veröffentlicht für Starter, Team und Pro keine Listenpreise — das ist eine bewusste Entscheidung, schafft aber Reibung im Auswahlprozess. Wer transparent rechnen will, kommt um ein Vertriebsgespräch nicht herum. Im Vergleich dazu legt etwa Astronomer (Airflow-Anbieter) seine Preise weitgehend offen. Für DSGVO-Anwendungsfälle ist Self-Hosting des Prefect Servers oft die saubere Wahl — voll funktional, ohne Cloud-Zwang.
Stärken im Detail
Decorator-Syntax statt DAG-Dateien. In Prefect schreibst du normale Python-Funktionen und annotierst sie mit @flow und @task. Es gibt keinen separaten DAG-Definition-Layer, kein Operator-Klassen-Hierarchie, keine getrennte Konfiguration. Das gleiche Skript, das du lokal mit python flow.py testest, läuft in Produktion identisch — nur mit anderem Worker-Backend. Diese Code-Konsolidierung reduziert Kontext-Wechsel und macht Tests deutlich einfacher.
Dynamische Pipelines als Standard. Wenn du heute fünfzig Mandanten verarbeitest und morgen siebzig, schreibst du in Prefect einfach eine Schleife — die Tasks werden zur Laufzeit erzeugt, das Web-UI zeigt sie sauber an, Retries und Logs funktionieren pro Iteration. Airflow kann das mit DynamicTaskMapping inzwischen auch, aber in Prefect ist es das natürliche Programmiermodell, nicht ein Sonderfall.
Open-Source mit feature-vollem Server. Anders als bei manchen kommerziellen Open-Core-Modellen ist Prefect Server (Apache 2.0) keine kastrierte Variante. Scheduling, Web-UI, Run-Historie, Logging — alles ist enthalten. Was Cloud zusätzlich bringt, sind primär Komfort (kein Hosting nötig), Skalierung (Serverless-Worker ohne eigene Infrastruktur) und Enterprise-Features (SSO, SCIM, RBAC, PrivateLink). Die Kern-Funktionalität bekommst du Open-Source.
Hobby-Plan mit echtem Substanz. Zwei Nutzer, ein Workspace, fünf Deployments und 500 Serverless-Minuten pro Monat — das reicht für ernsthafte Prototypen, Side-Projects oder kleine private Datenpipelines. Du musst weder Kreditkarte hinterlegen noch eigenen Server betreiben. Das ist großzügiger als bei den meisten Airflow-Managed-Anbietern, die schon im Einstieg im Cent-pro-Stunde-Modell rechnen.
Saubere Observability und Event-Driven Automations. Prefect 3 hat die Automations-Engine ausgebaut: Du kannst auf Events reagieren (Task fehlgeschlagen, Schedule-Versäumnis, externes Webhook), Slack-Benachrichtigungen senden oder Folge-Flows triggern — ohne externe Tools. Die Run-Historie zeigt Logs, Inputs, Outputs und Lineage strukturiert an. In der Praxis findet man Fehler schneller als beim Durchwühlen von Airflow-Logs.
Schwächen ehrlich betrachtet
Prefect Cloud ist US-only. Das ist die einzelne größte Einschränkung: cloud.prefect.io läuft in US-Regionen, eine EU-Variante existiert nicht. Für DSGVO-sensible Branchen (Banken, Versicherungen, Anwälte, Gesundheitswesen) ist das ein KO-Kriterium für die Cloud-Variante. Der saubere Pfad ist dann Self-Hosting des Prefect Servers in deiner eigenen EU-Cloud-Region — funktioniert technisch tadellos, verlangt aber DevOps-Aufwand. Wer eine fertige EU-gehostete Managed-Variante will, fährt mit Airflow auf AWS MWAA Frankfurt eindeutig besser.
Kleineres Ökosystem als Airflow. Airflow hat über 90 offizielle Provider-Pakete (AWS, Snowflake, dbt, Spark, Salesforce, Databricks etc.). Prefect hat ein wachsendes Integrations-Ökosystem, aber spürbar kleiner. Für viele Standard-Integrationen ist das kein Problem — Python-Bibliotheken funktionieren direkt. Für Nischen-Systeme musst du häufiger eigene Hooks schreiben.
Pricing-Intransparenz. Außer Hobby (gratis) und Enterprise (Jahresvertrag) sind die mittleren Tiers Starter, Team und Pro nicht öffentlich bepreist. Du musst mit dem Vertrieb sprechen, um konkrete Zahlen zu bekommen. In einer Welt, in der Engineering-Tools zunehmend transparent ihre Preise zeigen (Astronomer, Linear, Vercel), wirkt diese Intransparenz altmodisch und schafft Beschaffungs-Reibung.
Talent-Pool und Community sind kleiner. Wenn du Engineers extern anwerben willst, finden sich Airflow-Skills häufiger im Markt. Stack-Overflow-Antworten, Konferenz-Talks, Trainings-Ressourcen sind bei Airflow umfangreicher. Für die Onboarding-Risiko-Bewertung gerade in größeren Organisationen ist das ein realer Faktor — auch wenn Prefect technisch in vielen Belangen die elegantere Lösung ist.
Keine deutsche UI, kein deutschsprachiger Support. Wie bei den meisten Engineering-Tools englischsprachig — für die meisten deutschen Teams akzeptabel, bei Schulungen für nicht-englischsprachige Stakeholder ein Faktor.
Alternativen im Vergleich
| Wenn du… | …nimm stattdessen |
|---|---|
| Den De-facto-Standard mit größtem Ökosystem und EU-Managed-Optionen willst | Apache Airflow |
| ML-Trainings und Daten-Stack aus einer Plattform willst | Databricks |
| Managed ML-Pipelines im AWS-Ökosystem brauchst | Amazon SageMaker |
| Workflow-Automatisierung ohne Python-Code willst | n8n oder Make |
| Einfache SaaS-zu-SaaS-Verknüpfungen ohne Datenpipeline-Anspruch brauchst | Zapier |
Erwähnenswert ohne eigene Tool-Seite: Dagster ist Prefects direktester Konkurrent — Asset-zentrierte Sicht, starke Observability, ähnliche Decorator-Ergonomie. Argo Workflows ist die Wahl für Kubernetes-native Teams (YAML-DAGs), Temporal eher für Application-Workflows als Datenpipelines. Im Bereich Data-Pipeline-Orchestrierung ist Prefect technologisch eine der modernsten Optionen — Airflow bleibt der Marktstandard, Prefect der ergonomische Herausforderer.
So steigst du ein
Schritt 1: Lokal mit pip starten. Installiere Prefect per pip install -U prefect in einem Python-Venv. Schreibe einen ersten Flow mit zwei Tasks — etwa eine Funktion, die Daten lädt, eine zweite, die transformiert. Annotiere mit @flow und @task, rufe den Flow lokal mit python flow.py auf. Keine zusätzliche Infrastruktur nötig — Prefect lädt eine eingebaute SQLite-Backend-Variante.
Schritt 2: Mit Prefect Cloud Hobby verbinden. Logge dich auf app.prefect.cloud ein und verbinde deinen lokalen Client per prefect cloud login. Jetzt landen Run-Historie, Logs und Schedules im Web-UI. Erstelle ein Deployment (prefect deploy), wähle einen Schedule und sieh dem Flow beim regelmäßigen Laufen zu. Diese Stufe kostet null Euro.
Schritt 3: Worker-Backend wählen und produktiv gehen. Spätestens für ernsthafte Pipelines entscheidest du, wo die Worker laufen sollen: Prefect Serverless (in der Cloud, einfach, kostet Credits), Docker auf eigenem Server, Kubernetes via Helm-Chart oder direkt in deiner Cloud (ECS, GKE). Der Flow-Code bleibt dabei identisch — nur das Worker-Backend wechselt. Für DSGVO-Einsätze: Prefect Server self-hosted in deiner EU-Region, Worker im selben Cluster.
Ein konkretes Beispiel
Ein deutsches Health-Tech-Startup aus Berlin (45 Mitarbeitende) entwickelt eine ML-gestützte Arzneimittel-Empfehlung. Datenpipeline auf Prefect, Server self-hosted in Hetzner Cloud (Helsinki, EU): Täglich um 04:00 Uhr extrahiert ein Flow strukturierte Patientendaten aus PostgreSQL (pseudonymisiert), holt aktuelle Wirkstoff-Updates aus einer externen API, berechnet Embedding-Updates über ein lokales Modell und schreibt das Ergebnis in eine FAISS-Index-Datei. Pro Patient wird ein dynamischer Sub-Flow gestartet — bei tausend aktiven Patienten heißt das tausend kleine Flows mit eigenen Logs und Retries. Effekt: Die ganze Strecke läuft in 25 Minuten, dynamisch skaliert auf die jeweilige Patientenzahl. Das vierköpfige ML-Team konnte mit zwei Wochen Einarbeitung produktiv werden — vorherige Erfahrung war Prototyp-Skripte mit cron. Prefect Cloud kam wegen DSGVO-Anforderungen nicht infrage; Self-Hosting in Hetzner kostet inklusive PostgreSQL und Worker-Maschinen ca. 80 € pro Monat.
DSGVO & Datenschutz
- Datenhosting Prefect Cloud: Ausschließlich US-Regionen (cloud.prefect.io), kein EU-Hosting verfügbar. Anbieter ist Prefect Technologies, Inc. mit Sitz in Washington, D.C.
- Datenhosting Self-Hosted (Prefect Server): Vollständig in deiner Hand. Läuft, wo du es betreibst — on-prem, eigene Cloud, Kubernetes, EU-Region deiner Wahl.
- Datennutzung: Prefect Cloud verarbeitet Metadaten zu Flow-Runs (Schedules, Status, Logs). Eingabe- und Ausgabedaten der Tasks bleiben standardmäßig in deiner Infrastruktur — die Worker führen den Code dort aus, wo du sie startest.
- Auftragsverarbeitung (AVV): Für zahlende Cloud-Kunden verfügbar (Standardvertragsklauseln für US-Verarbeitung erforderlich). Bei Self-Hosting kein AVV nötig — die Software läuft bei dir.
- Sensible Daten in Flows: Keine Klartext-Geheimnisse im Code committen. Nutze Prefect Blocks (verschlüsselte Speicherung von Credentials) oder externe Secret-Manager (HashiCorp Vault, AWS Secrets Manager). Bei der Cloud-Variante: Logs und Run-Metadaten landen in den USA — keine personenbezogenen Daten unverschlüsselt loggen.
- Empfehlung für DSGVO-sensible Branchen: Self-Hosting des Prefect Servers in deiner eigenen EU-Region ist der saubere Pfad. Wenn Prefect Cloud unverzichtbar ist, dann nur Metadaten-Verarbeitung, niemals personenbezogene Inhalte. Vor Produktiveinsatz Datenschutz-Folgenabschätzung durchführen.
Gut kombiniert mit
- Databricks — Prefect orchestriert übergreifend (Trigger, Abhängigkeiten, Validierung), Databricks führt rechenintensive Spark-Jobs und ML-Trainings aus. Über Python-SDK lassen sich Databricks-Jobs aus Prefect-Flows starten und Status zurückbekommen — saubere Aufgabenteilung zwischen Orchestrator und Compute-Engine.
- Amazon SageMaker — Prefect-Flows koordinieren Trainings-, Tuning- und Batch-Inferenz-Jobs in SageMaker. Die boto3-Integration ist direkt in Python nutzbar, Prefect übernimmt Status-Tracking und Retry-Logik. Für Teams im AWS-Ökosystem natürliche Kombination.
- dbt (kein eigener Tool-Eintrag) — der Standard für Datenmodellierung in modernen Stacks. Prefect plant und triggert dbt-Runs (etwa per
prefect-dbt-Integration), dbt selbst transformiert in Snowflake oder BigQuery. Prefects dynamische Tasks passen besonders gut zu Modell-für-Modell-Ausführung.
Unser Testurteil
Prefect verdient 4 von 5 Sternen. Es ist die ergonomisch elegantere Antwort auf Apache Airflow — Decorator-Syntax, dynamische Pipelines, sauberes Open-Source-Modell, ein wirklich nutzbarer Hobby-Plan. Für neue Projekte auf grüner Wiese mit Python-affinem Team ist Prefect oft die bessere Wahl als Airflow. Den fünften Stern verliert es aus zwei Gründen: Erstens die fehlende EU-Region in Prefect Cloud — das schließt einen Teil des deutschen Marktes faktisch von der SaaS-Variante aus und zwingt zu Self-Hosting, wo Airflow mit MWAA Frankfurt eine fertige Managed-EU-Option bietet. Zweitens das deutlich kleinere Ökosystem und der kleinere Talent-Pool — wer Connector-Vielfalt oder einfache Personalrekrutierung braucht, fährt mit Airflow nach wie vor sicherer. Wer aber die Wahl hat und auf grüner Wiese baut, sollte Prefect ernsthaft prüfen — die Entwickler-Erfahrung ist spürbar besser.
Was wir bemerkt haben
- 2024 — Prefect 3 wurde veröffentlicht. Major-Release mit überarbeiteten Automations (event-driven), verbesserter Observability und sauberer dynamischer Pipelines. Der Versionssprung war Breaking — wer von Prefect 2 kommt, muss migrieren, aber der Aufwand ist deutlich kleiner als bei Airflow 2 → 3.
- 2024–2025 — Prefect Cloud hat sein Pricing-Modell mehrfach umgebaut. Heute gibt es fünf Tiers (Hobby, Starter, Team, Pro, Enterprise) statt der früheren drei — mit konsequenter Verlagerung der konkreten Preise hinter den Vertrieb. Nur Hobby (gratis) und Enterprise (Jahresvertrag) sind öffentlich greifbar.
- Mai 2026 — Es gibt weiterhin keine EU-Region für Prefect Cloud. Anfragen aus deutschen Communities seit Jahren — bisher ohne Reaktion mit konkretem Datum. Wer DSGVO-sauber arbeiten will, ist auf Self-Hosting des Prefect Servers angewiesen.
- 2024–2025 — Dagster und Prefect liefern sich ein paralleles Innovations-Rennen im Bereich moderner Orchestrierung. Beide haben Decorator-Syntax, beide setzen auf Asset- bzw. Event-driven Modelle. Wer Prefect prüft, sollte Dagster im selben Bewertungslauf mit ansehen — die Entscheidung fällt oft nach Ökosystem-Fit, nicht nach Kern-Funktionalität.
- 2024 — Prefect hat den Hobby-Plan deutlich aufgewertet (vorher restriktiver, jetzt 500 Serverless-Minuten/Monat plus Web-UI). Das ist eine Wette darauf, dass kostenlose Prototyper später als Cloud-Kunden wiederkommen — und macht den Einstieg in moderne Orchestrierung so niedrigschwellig wie nie zuvor.
Diesen Inhalt teilen:
Redaktionell bewertet · Preise und Funktionen können sich ändern.
Stimmt etwas nicht?
Preise geändert, Feature veraltet oder etwas fehlt? Wir freuen uns über Hinweise und Ergänzungen.
Nicht sicher, ob Prefect zu euch passt?
Wir helfen bei der Tool-Auswahl und begleiten die Einführung in euren Arbeitsalltag — unverbindlich und kostenlos im Erstgespräch.
Weitere Tools
Apache Airflow
Apache Software Foundation
Open-Source-Standard für Workflow-Orchestrierung. Definiert Datenpipelines und ML-Trainingsabläufe als Python-DAGs, plant sie zeitgesteuert oder ereignisbasiert und überwacht jeden Lauf. Mit Airflow 3.0 (April 2025) hat das Projekt einen großen Architektur-Sprung mit DAG-Versionierung, neuer React-UI und Asset-basiertem Scheduling vollzogen.
Mehr erfahrenClearML
ClearML Inc.
Open-Source-MLOps-Plattform für Experiment-Tracking, Daten-Versionierung, Pipeline-Orchestrierung und Modell-Registry — komplett selbst hostbar oder als Managed SaaS. Reife Alternative zu MLflow und Weights & Biases mit deutlich breiterem Funktionsumfang als reine Tracking-Tools. Self-Hosting ist erwachsen, die SaaS-Variante läuft jedoch in den USA — für DSGVO-Anwender zählt fast nur die On-Prem-Option.
Mehr erfahrenComet ML
Comet ML, Inc.
Etablierte MLOps-Plattform für Experiment-Tracking, Modellregistrierung und Datasets — dazu mit Opik ein 2024 veröffentlichtes Open-Source-Werkzeug für LLM-Evaluation und Tracing, das sich gegen LangSmith und Arize Phoenix positioniert. Reife Python-SDK, breite ML-Framework-Unterstützung, faire Preise. Cloud läuft in den USA — EU-Hosting erst im Enterprise-Plan, Self-Hosting kostenlos.
Mehr erfahren