Zum Inhalt springen
Automotive crashtestsimulationfem

KI-gestützte Crashtest-Simulation und virtuelle Absicherung

KI-beschleunigte FEM- und Crashtestsimulationen reduzieren physische Prototypen um bis zu 60 % — und liefern Absicherungsergebnisse in Stunden statt Wochen.

Worum geht's?

Es ist Donnerstag, 14:47 Uhr. Dr. Tobias Kramer sitzt am Rechner und wartet. Wieder.

Tobias ist Berechnungsingenieur bei einem Tier-1-Zulieferer im Raum Stuttgart und verantwortet die Crashabsicherung einer neuen B-Säulenstruktur für eine Elektrofahrzeugplattform. Die Serienentscheidung ist in drei Wochen. Heute Morgen hat er eine Geometrievariante in den HPC-Cluster eingestellt — eine kleine Änderung an der Wandstärke im oberen Drittel, die der Konstrukteur gestern als Leichtbaumaßnahme vorgeschlagen hat. Laufzeit: voraussichtlich 16 Stunden.

Resultat kommt morgen früh. Wenn das Modell konvergiert.

Wenn nicht, beginnt die Fehlersuche von vorne. Und die drei anderen Varianten, die der Konstrukteur noch auf seiner Liste hat, kommen frühestens nächste Woche dran. Der physische Bauteiltest — 180.000 Euro Werkzeugkosten, vier Wochen Vorlauf, drei Fahrzeuge — steht für Mitte des nächsten Monats. Tobias muss bis dahin wissen, welche Variante er nominiert.

In dieser Lücke zwischen Simulation und Entscheidung verlieren Entwicklungsteams ihre schärfsten Wochen.

Das echte Ausmaß des Problems

Ein modernes Fahrzeug muss vor der Serienfreigabe eine Vielzahl von Crashszenarien bestehen: Frontalaufprall mit voller Überdeckung und 40-%-Überdeckung gegen eine deformierbare Barriere, seitlicher Pfahl- und Barrierenaufprall, Heckaufprall, Fußgängerschutz-Szenarien, Far-Side-Impact — und bei Elektrofahrzeugen zusätzlich Batteriezellen-Integritätstests. Für jede Variante eines Fahrzeugs, jede Plattformableitung, jede Baureihe.

Die Zahlen dahinter sind brutal: Für eine einzelne Fahrzeugfrontstruktur sind laut EDAG Engineering zwischen 200 und 600 FEM-Simulationen notwendig, um alle relevanten Aufprallpunkte und Konfigurationen abzudecken. Datenvorbereitung, Berechnung, Validierung und eventuelle Neuberechnung summieren sich auf vier bis sechs Wochen pro Iterationszyklus — mit einem hochperformanten Rechencluster, der weder günstig noch für jeden Tier-1 ständig verfügbar ist.

Die physischen Tests am Ende dieser Pipeline kosten je nach Testaufbau und Fahrzeugreife zwischen 100.000 und 600.000 Euro pro Versuch — inklusive Instrumentierung, Messtechnik, Crash-Dummies und der Vollausstattungs-Rohkarosse. Ein vollständiges Euro-NCAP-Testprogramm für eine neue Plattform bindet über den gesamten Entwicklungszyklus leicht zweistellige Millionenbeträge.

Für einen OEM mit mehreren gleichzeitigen Plattformprojekten ist das beherrschbar. Für einen Tier-1-Zulieferer, der für drei OEMs parallel Crashzulieferteile entwickelt, wird die CAE-Kapazität zum chronischen Engpass — besonders in den kritischen Phasen vor Serienentscheidungen.

Das strukturelle Problem: Die Simulationszeit begrenzt nicht die Qualität der Lösung, sondern die Anzahl der Lösungen, die ein Team überhaupt evaluieren kann. Welche Geometrievarianten bleiben wegen Zeitmangel ungeprüft? Welche Leichtbaumaßnahme wird aufgegeben, weil kein Simulationsslot mehr frei ist?

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KI-SurrogateMit KI-Surrogate
Simulationszeit pro Variante8–20 Stunden (HPC-Cluster)3–30 Sekunden (GPU-Workstation)
Anzahl testbarer Varianten pro Woche3–10500–5.000
Zeitbedarf für Designoptimierung (DOE)4–6 Wochen2–5 Tage ¹
Physische Tests vor Serienfreigabe8–15 Versuche4–8 Versuche ¹
Benötigte InfrastrukturHPC-Cluster, RechenzentrumGPU-Workstation reicht für Surrogate-Inferenz
Rechenkosten pro Evaluierung50–200 € (HPC-Zeit)< 1 € (GPU-Inferenz)

¹ Erfahrungswerte aus EDAG-KI-Crash-Projekten und Neural-Concept-Implementierungen; stark abhängig von Datenmenge, Trainingsqualität und Lastfall-Komplexität. Physische Testreduktion setzt eine regulatorisch konforme Validierungsstrategie voraus.

Der wichtigste Effekt ist nicht Geschwindigkeit per se — er ist der Übergang von Selektion zu Exploration. Ohne KI wählt das Team unter Zeitdruck die vielversprechendsten drei Varianten aus und simuliert diese. Mit KI werden Tausende Varianten durchfiltert, bevor die vier besten in die teure Vollsimulation gehen.

Einschätzung auf einen Blick

Zeitersparnis — maximal (5/5)
Kein anderer Anwendungsfall in der Automobilentwicklung hat eine vergleichbar dramatische Zeitdifferenz zwischen dem Status quo und dem KI-gestützten Ansatz. Von 16 Stunden HPC-Laufzeit auf 10 Sekunden GPU-Inferenz — das ist kein gradueller Unterschied, sondern ein Ordnungsgrößensprung. Das macht diesen Use Case zu dem mit dem höchsten Zeithebel in dieser Kategorie, auch wenn die initiale Einrichtung Monate dauert.

Kosteneinsparung — maximal (5/5)
Ein physischer Crashversuch kostet 100.000–600.000 Euro. Wenn vier bis sieben physische Tests eingespart werden — weil das Surrogate die unvielversprechenden Varianten herausfiltert, bevor teure Prototypen gebaut werden — sind sechs- bis siebenstellige Einsparungen pro Fahrzeugprojekt keine Ausnahme. Das macht diesen Use Case zum stärksten Kostenhebel in dieser Kategorie.

Schnelle Umsetzung — minimal (1/5)
Das ist der härteste Score in dieser Kategorie. Eine produktive KI-Surrogate-Integration in einen bestehenden Crash-CAE-Workflow dauert typisch 12–24 Monate: Datensichtung und -bereinigung, Modelltraining, Validierung gegen bekannte Tests, schrittweise Integration in den Freigabeprozess, regulatorische Absicherung. Kein Projekt dieser Komplexität geht schneller. Dieser Score ist beabsichtigt — er ist ehrlicher als jede Vereinfachung.

ROI-Sicherheit — mittel (3/5)
Der direkte Zeiteinsparungseffekt ist klar messbar. Schwieriger ist die Attribution: Wie viele physische Tests wurden wegen des Surrogates eingespart — und wie viele hätte man auch ohne KI eingespart, weil andere Design-Iterationen ohnehin nicht gebaut worden wären? Die regulatorische Unsicherheit (physische Tests bleiben Pflicht) begrenzt zudem die maximale Einsparung. Das ist kein schwacher ROI — aber kein so direkter Nachweis wie etwa bei automatisierter Rechnungsverarbeitung.

Skalierbarkeit — hoch (4/5)
Ein trainiertes Surrogate-Modell skaliert ohne proportionalen Mehraufwand auf weitere Varianten derselben Fahrzeugplattform. Weitere Lastfälle und neue Plattformprojekte erfordern allerdings Retraining — die Skalierbarkeit ist plattformintern stark, plattformübergreifend begrenzt.

Richtwerte — stark abhängig von Unternehmensgröße, CAE-Infrastruktur, Datenqualität und Fahrzeugplattform.

Was die KI-Simulation konkret macht

Der technische Ansatz heißt Surrogate Modeling oder Machine Learning-basierte Metamodellierung. Das Grundprinzip: Statt jede neue Designvariante durch eine vollständige FEM-Simulation zu schleusen, lernt ein neuronales Netz aus einer Sammlung bereits durchgeführter Simulationen das Verhalten des Bauteils — und kann dann neue, ungesehene Designvarianten in Sekundenbruchteilen einschätzen.

Der konkrete Ablauf

Phase 1 — Trainingsdaten aufbauen. Aus dem bestehenden Simulations-Archiv werden 50–200 historische FEM-Crashsimulationen (typisch Ansys LS-DYNA- oder Altair HyperWorks-Berechnungen) mit variierenden Geometrie- und Materialparametern extrahiert. Diese Daten werden vorverarbeitet: Netzgeometrie, Wandstärken, Materialparameter als Inputs; Intrusion, Energieabsorption, Kraft-Weg-Kurven und Karosserie-Deformation als Outputs.

Phase 2 — Modell trainieren. Plattformen wie Neural Concept oder NVIDIA PhysicsNeMo trainieren Graph-Neural-Networks auf diesen Daten. Der Trainingsprozess dauert typisch 5–15 Stunden auf einer leistungsstarken GPU — einmalig pro Lastfall und Plattform.

Phase 3 — Explorative Parameterstudien. Das trainierte Modell bewertet 1.000 oder 10.000 neue Designvarianten in Minuten — ohne HPC-Cluster, ohne Lizenzkosten pro Lauf. Ingenieure können Parameterräume explorieren, die zuvor rechnerisch unerreichbar waren.

Phase 4 — Selektion für Vollsimulation. Die vielversprechendsten 5–10 % der surrogat-evaluierten Varianten gehen in klassische Referenzsimulationen mit dem Vollmodell. Diese bleiben unverzichtbar — für die Dokumentation, für die regulatorische Absicherung und weil das Surrogate außerhalb seines Trainingsbereichs unzuverlässig werden kann.

Phase 5 — Physische Tests selektiv. Die besten Kandidaten aus den Vollsimulationen werden für Komponenten- und Systemtests vorgeschlagen. Die Anzahl physischer Versuche sinkt, weil das Surrogate die unvielversprechenden Optionen schon früh aussortiert hat.

Was das System nicht ist

Ein Crash-Surrogate ist kein eigenständiger Simulator. Es lernt Muster aus vorhandenen Simulationen — und ist nur so gut wie diese Daten. Neue Topologien (ein völlig anders aufgebautes Bauteil), andere Crash-Konfigurationen (anderer Aufprallwinkel, andere Barriere) oder neue Materialien außerhalb des Trainingsraums produzieren unzuverlässige Vorhersagen. Das System erkennt diese Fälle oft nicht als “außerhalb meiner Kompetenz” — es gibt trotzdem eine Zahl aus.

Das CAE-Ökosystem: Solver und Surrogate im Zusammenspiel

Wer diesen Use Case implementiert, muss zwei getrennte Softwarewelten zusammenbringen: die klassische FEM-Simulation und die KI-Surrogate-Schicht. Beide Welten haben ihre eigene Logik, ihre eigenen Formate, ihre eigenen Experten.

Die Solver-Seite

Der Industriestandard für explizite Crash-FEM-Simulation ist Ansys LS-DYNA. Nahezu alle globalen OEMs und Tier-1-Zulieferer haben Ansys LS-DYNA in ihrem CAE-Workflow. Simulationsdaten liegen als K-Files und d3plot-Ausgaben vor — das sind die Rohmaterialien, auf denen KI-Surrogate trainieren.

Die wichtigste Alternative ist Altair HyperWorks mit dem RADIOSS-Solver und dem spezialisierten HyperCrash-Preprocessing. RADIOSS liest LS-DYNA-Formate, was die Migration erleichtert. Ein eingebautes Surrogate-Modul (HyperStudy Fit) macht parametrische Optimierungen ohne separates ML-Tool möglich — weniger leistungsfähig als spezialisierte Plattformen, aber integrierter.

Für OEMs mit Dassault-Systèmes-Ökosystem übernimmt 3DEXPERIENCE mit SIMULIA (Abaqus/Explicit) eine ähnliche Rolle — ebenfalls EU-Datenhosting, allerdings andere Modellformate als Ansys LS-DYNA.

Die Surrogate-Schicht

Neural Concept ist die reifste spezialisierte Plattform für Crash-Surrogate in Europa — direkt auf LS-DYNA/RADIOSS/Abaqus-Daten trainierbar, EU-gehostet, aktive OEM-Referenzen in der Crashoptimierung.

NVIDIA PhysicsNeMo ist ein Open-Source-Framework für physics-informed ML-Modelle. Im Projekt von NVIDIA und General Motors (2024) reduzierte PhysicsNeMo die Simulationszeit von über 15 Stunden HPC-Laufzeit auf wenige Sekunden auf einer einzelnen GPU-Workstation. PhysicsNeMo ist frei verfügbar auf GitHub — erfordert aber erhebliche ML-Expertise für Integration und Training.

EDAG KI-Crash ist ein proprietäres Werkzeug des Ingenieurdienstleisters EDAG Engineering, das auf physikerweiterte neuronale Netze setzt. Das Tool liefert Ergebnisse für Euro-NCAP-Crashworthiness-Assessments in ein bis zwei Tagen statt vier bis sechs Wochen — und läuft laut EDAG auf einer mobilen Workstation ohne Rechenzentrumsanbindung. Als Dienstleistung nutzbar, keine eigene Lizenzierung notwendig.

Wann welcher Ansatz

  • Eigene Solver-Landschaft ist LS-DYNA-basiert, ML-Expertise intern vorhandenNVIDIA PhysicsNeMo + eigener ML-Stack (günstigster Weg, höchste Anforderungen)
  • Spezialisierte Crash-Surrogate-Plattform gesucht, EU-Compliance wichtigNeural Concept
  • Altair HyperWorks-Ökosystem bereits vorhanden, einfacher Einstieg → HyperStudy Fit als erster Schritt
  • Kein eigenes CAE-Team, aber Crashtest-Optimierung nötig → EDAG KI-Crash als Dienstleistung

Regulatorischer Rahmen — was Euro NCAP virtuell erlaubt

Das zentrale Missverständnis: KI-Surrogate ersetzen keine physischen Tests für die Homologation. Sie beschleunigen den Weg dahin.

Was aktuell virtuell gilt

Euro NCAP hat virtuelle Simulationen schrittweise in seinen Bewertungsprozess integriert. Seit 2020 wird die Far-Side-Impact-Bewertung (Seitenaufprall mit Verformung der Beifahrerseite) teilweise virtuell durchgeführt — das war der erste Lastfall, für den virtuelle Dossiers regulatorisch anerkannt wurden. Ab 2024 ist Far-Side virtuelles Testing vollständig in Kraft; Euro NCAP arbeitet an der Ausweitung auf Frontal- und HWS-Schutz-Bewertungen als Teil des 2030-Roadmaps.

Das Protokoll ist dabei strikt: Mindestens 75 Prozent der Euro-NCAP-Verifikationstests eines Szenarioclusters müssen die Qualifikationskriterien erfüllen — sonst wird das Simulationsdossier nicht akzeptiert. Hersteller müssen zusätzlich physische Validierungsversuche (Sled-Tests) einreichen, um die Übereinstimmung zwischen Simulation und realem Versuch zu belegen.

Was physisch Pflicht bleibt

Für alle Lastfälle, die Euro NCAP noch nicht als virtuell anerkannt hat — und das ist 2026 noch die Mehrheit der Crash-Testpunkte — sowie für die finale Typgenehmigung nach UN-ECE-Regularien (UN R94, R95, R137) bleibt der physische Test obligatorisch. Keine Behörde akzeptiert derzeit ein KI-Surrogate als Ersatz für einen physischen Crash.

Die KI-Einsparung liegt daher im Vorfeld: Welche Variante geht in den physischen Test? Das Surrogate filtert die Kandidaten so, dass der physische Test mit hoher Wahrscheinlichkeit besteht — und nicht als teurer Fehlversuch endet.

UN R137 — Frontalaufprall Vollüberdeckung

UN R137 (Frontalaufprall gegen deformierbare Barriere, 50 km/h) ist seit 2021 verbindlich für neue Fahrzeugtypen in der EU. Die Anforderungen an Fahrgastzellen-Integrität und Rückhaltesystem-Performance sind umfangreich und erfordern physische Nachweise. KI-Surrogate können hier die Entwicklungsphase erheblich beschleunigen, aber nicht den abschließenden physischen Test ersetzen.

Praktische Implikation für den Einkauf: Wer KI-Crash-Simulationsdienste von einem Dienstleister bezieht, muss sicherstellen, dass der Dienstleister den regulatorischen Kontext kennt und die Ergebnisse entsprechend einordnet. Ein „Surrogate sagt Bestehen” ist keine Zulassungsaussage.

Genauigkeitsschwellen und Validierung

Wie gut muss ein Crash-Surrogate sein, damit es als Entscheidungsgrundlage taugt? Die Antwort hängt davon ab, wofür man es einsetzt — und das ist eine Designfrage, keine technische.

Genauigkeit für Exploration vs. Selektion

Für explorative Parameterstudien (Tendenz: Welche Richtung ist vielversprechend?) ist eine relative Fehlerquote von 10–20 % oft ausreichend. Das Surrogate muss nicht exakt sein — es muss die Topkandidaten von den Schlechtesten trennen können.

Für selektive Vollsimulation (Welche 5 von 500 Kandidaten gehen in den HPC?) sind 5–10 % relativer Fehler auf kritische Größen wie maximale B-Säulen-Intrusion oder Energieabsorption anzustreben. Aktuelle Modelle wie NVIDIA PhysicsNeMo GeoFlare erreichen auf Bumper-Tests L²-Fehler von unter 1 % und auf Body-in-White-Crashes unter 1,5 %.

Für die regulatorische Dokumentation gilt: Nur Vollsimulationen mit dem validierten FEM-Solver zählen. Surrogate-Ergebnisse sind interne Entscheidungshilfen, keine Zulassungsgrundlage.

Das Out-of-Distribution-Problem

Jedes Surrogate-Modell hat eine Trainingsdomäne — den Parameterraum, den die historischen Simulationen abgedeckt haben. Außerhalb dieser Domäne degradiert die Genauigkeit, und das Modell erkennt das typischerweise nicht selbst. Es gibt trotzdem eine Zahl aus.

Konkrete Fälle, in denen Surrogate-Modelle für Crash versagen:

  • Neue Topologie: Ein Konstrukteur schlägt eine Hohlstruktur mit inneren Rippen vor, die im Trainingsset nicht vorkommt. Das Modell hat keine Grundlage für diese Geometrie.
  • Anderes Material: Ein neuer hochfester Stahl (HX420) mit anderem Versagensverhalten als die Trainingswerkstoffe.
  • Anderer Aufprallwinkel: Das Trainingsset deckt 0° Frontalaufprall ab, aber das neue Szenario ist ein 15°-Schrägaufprall.
  • Geometrie-Sprung: Wenn eine Blechdicke außerhalb des trainierten Parameterbereichs liegt — z.B. alle Trainingsläufe lagen bei 0,8–1,5 mm, ein neuer Vorschlag liegt bei 2,0 mm.

Die Validierungsstrategie muss dieses Risiko adressieren: Für jede neue Plattform oder jeden neuen Lastfall muss das Surrogate gegen eine Handvoll gezielter Referenzsimulationen validiert werden — bevor es produktiv eingesetzt wird.

Konkrete Werkzeuge — was wann passt

WerkzeugAnsatzStärkePasst wenn…
Neural ConceptKI-Surrogate-PlattformEU-gehostet, OEM-erprobt, für Crash optimiertSpezialisierte Crash-Surrogate gesucht, EU-Compliance wichtig
Ansys LS-DYNAFEM-Referenz-SolverIndustriestandard, ZulassungsbasisCAE-Workflow-Basis und Trainingsdaten-Quelle
Altair HyperWorksCAE-Suite mit SurrogateIntegriertes DOE + Surrogate (HyperStudy Fit)Altair-Ökosystem bereits vorhanden; erster Einstieg
3DEXPERIENCEPLM-Suite mit SIMULIAAbaqus/Explicit, EU-CloudDassault-Ökosystem, OEM-PLM-Integration wichtig
NVIDIA PhysicsNeMoOpen-Source-ML-FrameworkHöchste Genauigkeit, frei verfügbarStarkes ML-Team intern; maximale Kontrolle gewünscht
EDAG KI-CrashDienstleistungKein eigenes Setup nötig, Euro-NCAP-konformKein internes KI-Team; schneller Einstieg über Dienstleister

Zusammenfassung: Wann welche Strategie

Datenschutz und Datenhaltung

Crash-Simulationsdaten sind Konstruktionsdaten — keine personenbezogenen Daten im Sinne der DSGVO. Der klassische AVV-Pfad nach Art. 28 DSGVO greift hier nicht primär. Relevanter ist der Schutz von Geschäftsgeheimnissen: Fahrzeuggeometrien, Materialparameter, Crashbox-Topologien und Versuchsergebnisse vor dem Launch sind hochsensibles Entwicklungs-IP.

Cloud vs. On-Premises

Das erste zu klärende Risiko ist Datenresidenz, nicht DSGVO:

  • Neural Concept hostet Daten in der EU/Schweiz — für die meisten europäischen OEMs und Tier-1s akzeptabel. Vertragsgrundlage ist typisch ein NDA plus Data Processing Agreement (kein personenbezogener Datenschutz, aber IP-Schutz).
  • NVIDIA PhysicsNeMo ist Open-Source und kann vollständig On-Premises auf eigenem HPC-Cluster oder in der firmeninternen Cloud betrieben werden — volle Datenkontrolle.
  • EDAG KI-Crash als Dienstleistung bedeutet: Konstruktionsdaten gehen an EDAG. Für Fahrzeugkonzepte, die noch nicht öffentlich sind, ist ein striktes NDA mit definierten Datenlöschfristen Pflicht.
  • Altair HyperWorks und Ansys LS-DYNA laufen typisch On-Premises auf dem eigenen HPC — kein Cloud-Datentransfer für die eigentliche Simulation.

Was mit eurem Datenschutzbeauftragten zu klären ist

Für Simulationsdaten, die ausschließlich technische Konstruktionsparameter enthalten (keine Personendaten), ist kein AVV im DSGVO-Sinne erforderlich. Wichtig ist aber eine IP-Schutzklausel im Dienstleistervertrag: Wer trainiert auf euren Daten? Werden Modelle nach Projektende gelöscht? Kann der Anbieter aus euren Daten lernen und dieses Wissen für andere Kunden nutzen?

Diese Fragen sind bei jedem KI-Anbieter im CAE-Bereich aktiv zu stellen — und vertraglich zu fixieren, bevor CAD-Modelle hochgeladen werden.

Was es kostet — realistisch gerechnet

Einmalige Kosten

  • Datensichtung und -aufbereitung (FEM-Archiv bereinigen, Trainingsset zusammenstellen): 2–8 Wochen Ingenieurszeit intern; typisch 20.000–60.000 Euro wenn extern unterstützt
  • Modelltraining und Validierung (Erstes Surrogate für einen Lastfall): 30.000–100.000 Euro für professionelles Onboarding (z.B. Neural Concept), oder 3–6 Monate ML-Engineering intern
  • Infrastruktur (falls NVIDIA PhysicsNeMo On-Premises): Leistungsfähige GPU-Workstation (NVIDIA A100/H100-Klasse): 15.000–60.000 Euro einmalig; Cloud-GPU-Alternativen ab ~3 $/Stunde

Laufende Kosten

  • Neural Concept: Subscription, Preise nur auf Anfrage; für ein OEM-Team typisch im unteren sechsstelligen Jahresbereich
  • Altair HyperWorks HyperStudy Fit: Inbegriffen in bestehender HyperWorks-Lizenz (wenn vorhanden) — kein Zusatzpreis
  • NVIDIA PhysicsNeMo: Open Source, kostenlos; laufende Kosten nur für GPU-Infrastruktur
  • EDAG KI-Crash: Projektbasiertes Dienstleistungsmodell; für ein Fahrzeugprojekt typisch 50.000–200.000 Euro je nach Umfang
  • Ansys LS-DYNA als Trainingsdaten-Solver: Typisch bereits vorhanden bei OEM/Tier-1; Jahreslizenzen sechs- bis siebenstellig

Was du dagegen rechnen kannst

Ein physischer Crashversuch (Komponentenebene Tier-1) kostet 80.000–250.000 Euro. Wenn das Surrogate fünf physische Fehlversuche verhindert, die ohne Vorfilterung nötig gewesen wären: 400.000–1.250.000 Euro eingespart, konservativ gerechnet. Das ist nicht der theoretische Maximum-Case — das ist, was passiert, wenn das Team bisher eine von fünf Varianten nominiert und diese dann im Test scheitert.

Die realistischere Zahl für ein einzelnes Fahrzeugprojekt (nicht gesamter Entwicklungszyklus): 2–4 eingesparte Versuche, also 160.000–1.000.000 Euro direkter Kosteneinsparung — plus die Entwicklungszeitverkürzung, die schwerer zu beziffern ist, aber für OEMs mit Markteinführungsterminen hoch bewertet wird.

Konservatives ROI-Szenario: Setup-Kosten 150.000 Euro, ein eingesparter physischer Test (100.000 Euro), 30 % schnellere Designoptimierungsphase (1 Ingenieurswoche gespart à 3.000 Euro = 3.000 Euro). Amortisation: Nicht in Jahr 1. Das hier ist ein strategisches Infrastrukturinvestment, kein Quick-Win.

Typische Einstiegsfehler

1. Mit dem falschen Lastfall starten.
Der Reflex: “Wir machen zuerst den komplexesten Lastfall — Frontalaufprall mit vollständiger Fahrzeugkarosse.” In der Praxis scheitert das fast immer, weil die Modellkomplexität die verfügbaren Trainingsdaten übersteigt. Lösung: Mit einem überschaubaren Komponenten-Lastfall starten — Crashbox, Stoßfänger, B-Säulen-Segment. Dort ist die Geometrievariabilität gering, die Datenlage oft gut, und ein erster valider Surrogate ist in 3–6 Monaten möglich. Erst danach eskalieren.

2. Trainingsdaten ohne Konsistenzprüfung verwenden.
Viele FEM-Archive enthalten Simulationen aus verschiedenen Projekten, verschiedenen Solver-Versionen, verschiedenen Materialmodellen und verschiedenen Netzdichten. Ein Surrogate, das auf inkonsistenten Daten trainiert, lernt Rauschen statt Physik. Lösung: Vor dem Training eine Datenklassifizierung durchführen — welche Simulationen sind für denselben Lastfall, dieselbe Geometriefamilie, dieselbe Solver-Version? Nur konsistente Subsets trainieren.

3. Surrogate-Ergebnisse ohne Validierung in Entscheidungen einbeziehen.
”Das Surrogate sagt, Variante 7 ist gut” — und das Team baut direkt den Prototyp. Ohne Validierung gegen eine Handvoll Referenzsimulationen (außerhalb des Trainingssets) ist diese Entscheidung blind. Lösung: Für jeden neuen Einsatzbereich mindestens 5–10 % der evaluierten Varianten mit Vollsimulationen gegenchecken. Die Accuracy-Metrics des Surrogates auf diesen Hold-Out-Datensätzen bestimmen, wie viel Vertrauen das Team in die Vorhersagen setzen darf.

4. Das Modell wird einmalig trainiert und dann unbegrenzt genutzt.
Das ist der gefährlichste Fehler — weil er still eskaliert.

Ein Crash-Surrogate trainiert auf Daten einer bestimmten Fahrzeugplattform und Materialgeneration. Wenn ein neuer hochfester Stahl eingeführt wird, ein Konstrukteur Geometriebereiche außerhalb des Trainingsparameters vorschlägt, oder die Plattform grundlegend geändert wird — produziert das Modell falsche Vorhersagen, ohne das anzuzeigen. Es gibt immer eine Zahl aus. Das Team verlässt sich auf diese Zahl, wählt die “beste” Variante — und scheitert beim physischen Test.

Die organisatorische Lösung: Jedes Surrogate-Modell braucht eine definierte Domänengrenze (welche Parameter- und Geometriebereiche wurden trainiert?), einen Retraining-Trigger (neue Materialien, Plattformänderung, Solver-Update), und eine namentlich benannte Person, die diese Grenzen kennt und kommuniziert. Das ist keine Aufgabe für die IT — es ist eine Aufgabe für den leitenden CAE-Ingenieur.

Was mit der Einführung wirklich passiert — und was nicht

Die technische Integration eines Crash-Surrogates ist im Vergleich zum kulturellen Wandel das kleinere Problem.

Der Glaubwürdigkeitstest. Erfahrene Crashberechnungsingenieure — Menschen, die seit Jahren FEM-Modelle aufbauen und die Grenzen dieser Methode kennen — werden einem neuronalen Netz zu Recht misstrauen. “Das Surrogate sagt, die Variante ist gut, aber ich sehe in der Deformationsoptik ein Problem” ist eine legitime Einschätzung, die das Team ernst nehmen muss. Lösung: Den Surrogate nie als Entscheidungsersatz präsentieren, sondern als Exploration-Tool. Die FEM-Ingenieure behalten das letzte Wort — das Surrogate filtert vor.

Der Kompetenz-Silo-Effekt. ML-Wissen und CAE-Wissen sind selten in einer Person vereint. Ein Projekt, das beide Welten verbinden muss, braucht entweder seltene Hybridprofile — oder ein funktionierendes Interface zwischen einem ML-Team und einem CAE-Team. Ohne dieses Interface entstehen Modelle, die technisch korrekt trainiert, aber für die Simulation des falschen Verhaltens zuständig sind. Lösung: Gemeinsame Kickoffs, in denen CAE-Ingenieure den ML-Ingenieuren erklären, warum Crash-Physik kompliziert ist — und welche Ausgabegrößen wirklich entscheidungsrelevant sind.

Der Langzeithorizont. Die erste Frage nach 6 Monaten: “Wann sparen wir wirklich Geld?” Das Surrogate reduziert erst dann physische Tests, wenn es gut genug validiert ist, um Vertrauen zu genießen. Das dauert länger als die Technik suggeriert. Ein realistischer Kommunikationsrahmen: “Im ersten Jahr bauen wir die Infrastruktur und validieren. Im zweiten Jahr explorieren wir damit, sparen aber noch keine physischen Tests. Im dritten Jahr beginnt die echte Amortisation.”

Was konkret hilft:

  • Einen “Champion”-Ingenieur pro Projekt benennen, der beide Welten versteht oder aktiv als Übersetzer fungiert
  • Ersten Pilot-Einsatz auf einem Projekt, bei dem der physische Test schon abgeschlossen ist — Surrogate-Ergebnisse für bekannte Outcomes validieren, bevor echte Entscheidungen damit getroffen werden
  • Monatliche Review-Meetings: Welche Surrogate-Vorhersagen wurden durch Vollsimulationen oder Tests bestätigt, welche nicht?

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datensichtung & -auswahlMonat 1–2FEM-Archiv inventarisieren, Trainingsset für ersten Lastfall definieren, Inkonsistente Simulations-Sets aussortierenArchiv umfangreicher oder inkonsistenter als erwartet — Aufwand verdoppelt sich
Plattform-Setup & TrainingMonat 3–5Tool-Auswahl (Neural Concept / NVIDIA PhysicsNeMo), Daten-Preprocessing, erstes Modelltraining auf Komponenten-LastfallML-Team unterschätzt CAE-Spezifika: falsches Output-Feature als Zielgröße trainiert
Validierung & KalibrierungMonat 6–8Surrogate gegen Hold-Out-Simulationen testen, Accuracy-Metrics bestimmen, Domänengrenzen dokumentierenAccuracy unzureichend — mehr Trainingsdaten oder Parametrisierungsänderung nötig
Pilot-Integration in DesignprozessMonat 9–12Erstes echtes Designprojekt mit Surrogate-gestützter Exploration begleiten, Vollsimulationen als Validierung parallel laufen lassenTeam ignoriert Surrogate-Ergebnisse, weil Vertrauen fehlt — Adoption-Problem
Skalierung & RetrainingMonat 12–24Weitere Lastfälle aufbauen, Plattformwechsel-Retraining, KPIs für physische Test-Reduzierung messenOut-of-Distribution-Ereignis erzeugt Fehlvorhersage — sofortiger Vertrauensverlust

Wichtig: Das ist ein 24-Monats-Investment, kein 6-Wochen-Projekt. Wer schnellere Ergebnisse braucht, sollte mit EDAG KI-Crash als Dienstleistung starten — und parallel die interne Infrastruktur aufbauen.

Häufige Einwände — und was dahintersteckt

„Unsere FEM-Ingenieure vertrauen dem KI-Modell nicht.”
Das ist kein irrationaler Widerstand — das ist Kompetenz. Ein guter FEM-Ingenieur weiß, was Simulationsmodelle falsch machen können, und überträgt das Misstrauen zu Recht auf das Surrogate. Die Lösung ist nicht Überzeugung, sondern Validation: Zeig, dass das Surrogate auf 20 bekannten Testcases korrekt liegt — bevor du es auf unbekannte anwendest. Dann entscheidet das Team auf Basis von Evidenz, nicht auf Basis von Vertrauen.

„Physische Tests bleiben doch Pflicht — was spart das dann?”
Korrekt. Physische Tests für die Homologation werden durch kein Surrogate ersetzt. Die Einsparung liegt in den physischen Tests, die scheitern, weil die falsche Variante nominiert wurde. Ein Surrogate filtert 95 % der schlechten Varianten raus, bevor teures Metall verformt wird. Zusätzlich: Entwicklungszeit. Wenn ein Redesign-Zyklus von 4 Wochen auf 3 Tage sinkt, kommen mehr Varianten zum Testen — und die beste hat mehr Zeit, bis zur Nominierung poliert zu werden.

„Wir haben nicht genug historische Simulationsdaten für das Training.”
Das ist die ehrlichste Ausschluss-Aussage, die es gibt. Unter 20–50 konsistenten Simulationen für denselben Lastfall ist ein sinnvolles Surrogate nicht trainierbar. Die Lösung ist nicht “Surrogate einführen” — sie ist “erstmal mehr Simulationsdaten produzieren und dokumentieren, damit wir in zwei Jahren starten können”. Diese Aussage verdient Respekt, nicht Rationalisierung.

„Das ist doch nur für OEMs — wir als Tier-1 können das nicht stemmen.”
Nicht mehr. Neural Concept hat aktive Referenzen bei europäischen Tier-1-Zulieferern. EDAG KI-Crash als Dienstleistung erfordert keine eigene Infrastruktur. Der Einstieg für ein Tier-1-Team mit 5–10 CAE-Ingenieuren und einem spezifischen Crashbox-Problem ist realistisch — wenn die Datenbasis stimmt.

Woran du merkst, dass das zu dir passt

  • Dein CAE-Team führt mehr als 50 FEM-Crashsimulationen pro Jahr auf vergleichbaren Geometrien und Lastfällen durch — du hast die Trainingsdaten
  • Deine Designoptimierungszyklen dauern 3–6 Wochen und der Engpass ist die Simulationskapazität, nicht die Konstruktionszeit
  • Physische Crashtests scheitern gelegentlich, weil zu wenig Zeit war, alle vielversprechenden Varianten zu simulieren — das Surrogate würde genau diese Lücke schließen
  • Du hast oder planst EV-Entwicklung: Batteriegehäuse-Crashabsicherung ist ein hervorragender Einstiegsfall für Surrogate — definierter Parameterraum, hohe Variationsvielfalt, klare Messgröße (maximale Intrusion)
  • Dein Unternehmen hat Zugang zu ML-Expertise — intern oder über einen Dienstleister wie EDAG oder Neural Concept

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Weniger als ~50 historische FEM-Crashsimulationen auf demselben Lastfall und derselben Geometriefamilie. Ohne diese Datenbasis ist kein verlässliches Surrogate-Modell trainierbar. Der erste Schritt ist dann nicht KI-Einführung, sondern Simulation-Workflow-Aufbau: Mehr simulieren, besser dokumentieren, konsistenter parametrisieren — damit in 12–24 Monaten ein Trainingsdatensatz vorhanden ist.

  2. Kein expliziter FEM-Crash-Solver im Einsatz (kein Ansys LS-DYNA, kein RADIOSS, kein Abaqus/Explicit). Statische Struktursimulationen mit impliziten Solvern wie Nastran sind keine Grundlage für Crash-Surrogate — die Physik ist eine andere. Ohne Crash-Solver gibt es keine Trainingsdaten, kein Modell, keinen Einstieg.

  3. Kein CAE-Ingenieur mit Crash-Spezialwissen im Haus oder als verlässlichen Partner. Ein ML-Team allein — ohne jemanden, der die Crash-Physik versteht, kritische Ausgabegrößen kennt und das Surrogate-Verhalten hinterfragen kann — produziert Modelle, die technisch gut trainiert sind und trotzdem das falsche Problem lösen. ML ohne Domain-Expertise ist in diesem Bereich nicht nur nutzlos, sondern potenziell gefährlich: Es gibt Zahlen aus, die niemand hinterfragen kann.

Das kannst du heute noch tun

Statt eines teuren Einstiegs gibt es einen konkreten Erkenntnisschritt, der nichts kostet: Hol drei bis fünf der häufigsten offenen Fragen aus deinem letzten Crashtest-Projekt heraus und beschreibe je Frage, wie viele Simulationsläufe du dafür gebraucht hättest — und wie viele du tatsächlich durchgeführt hast.

Diese Lücke ist dein Business Case. Wenn sie größer als 3 Varianten pro Frage ist und du mehr als 10 Fragen pro Projekt hast, lohnt es sich, eine Machbarkeitsstudie zu beauftragen (EDAG oder Neural Concept bieten initiale Assessment-Sessions an).

Für einen ersten Eindruck, was ein Surrogate leisten kann, ohne eigene Daten und ohne Infrastruktur: Das NVIDIA PhysicsNeMo-Beispiel für Crash-Surrogate ist open-source auf GitHub verfügbar (NVIDIA/physicsnemo, Verzeichnis examples/structural_mechanics/crash). Wer PyTorch-Kenntnisse hat, kann das Tutorial-Modell auf dem mitgelieferten Bumper-Datensatz lokal trainieren — ein guter Einstieg, um die Methode zu verstehen, bevor Entwicklungsbudget bewilligt wird.

Wenn dein Team den Business Case formulieren will, hier ist ein Prompt, der das strukturiert:

Business-Case-Analyse für KI-Crashtest-Simulation
Du bist ein Senior-CAE-Berater, der einem Automotive-Tier-1-Unternehmen hilft, den Business Case für KI-gestützte Crashtest-Simulation zu bewerten. Projektkontext: - Unternehmen: [FIRMENNAME], [ANZAHL] CAE-Ingenieure im Crash-Team - Aktueller FEM-Solver: [LS-DYNA / RADIOSS / ABAQUS EXPLICIT] - Ungefähre Anzahl Crashsimulationen pro Jahr: [ZAHL] - Hauptlastfälle: [z.B. Frontalaufprall, Seitenaufprall, Komponententests] - Anzahl physischer Crash-/Bauteilversuche pro Entwicklungsprojekt: [ZAHL] - Durchschnittliche Kosten pro physischem Versuch: [KOSTEN in EUR] Bitte bewerte den Business Case für KI-Surrogate-Modelle strukturiert in folgenden Punkten: 1. Datenbasis-Check: Reichen die beschriebenen Simulationsdaten für ein erstes Training aus? 2. Realistische Einsparung pro Fahrzeugprojekt (konservativ, realistisch, optimistisch) 3. Empfohlener Einstiegsweg (Neural Concept / NVIDIA PhysicsNeMo / Altair HyperStudy Fit / EDAG KI-Crash als Dienstleistung) 4. Geschätzter Zeitraum bis zur ersten messbaren Einsparung 5. Größte Risiken und Voraussetzungen, die nicht erfüllt sind Antworte auf Deutsch. Frage nach, wenn Projektkontext-Angaben fehlen oder unklar sind.
Funktioniert mit ChatGPT, Claude
Beispiel-Ausgabe

Mitarbeiter:in

Firmenname: Metallform GmbH, 8 CAE-Ingenieure, LS-DYNA, ca. 120 Simulationen/Jahr, Hauptlastfall Frontalcrash und Seitenaufprall, 6 physische Bauteilversuche pro Projekt à 120.000 EUR.

KI-Assistent

**Business-Case-Analyse: KI-Crash-Surrogate für Metallform GmbH** **1. Datenbasis-Check** 120 Simulationen/Jahr — sofern 40–60 davon auf denselben Lastfall und vergleichbare Geometriefamilien entfallen, ist das eine solide Trainingsbasis für einen ersten Komponenten-Surrogate. Vorsicht: Wenn die 120 Simulationen über viele verschiedene Projekte und Geometrietypen verteilt sind, braucht ihr zunächst mehr Konsistenz in eurem Archiv. **2. Einsparungspotenzial (pro Fahrzeugprojekt, 6 physische Tests à 120.000 EUR = 720.000 EUR Gesamtbudget)** - Konservativ: 1 Fehlversuch verhindert → 120.000 EUR gespart - Realistisch: 2–3 Tests eingespart → 240.000–360.000 EUR - Optimistisch: 4 Tests eingespart + 30% kürzere Designphase → 480.000 EUR + Entwicklungszeitgewinn **3. Empfohlener Einstiegsweg** Für 8 CAE-Ingenieure ohne eigenes ML-Team empfehle ich Neural Concept mit professionellem Onboarding. Warum: Kein ML-Aufbau intern nötig, EU-gehostet, LS-DYNA-kompatibel, aktive Tier-1-Referenzen. Alternativ: EDAG KI-Crash als erstes Pilotprojekt für ein laufendes Fahrzeugprojekt — ohne eigene Infrastruktur zu bauen. **4. Timeline bis zur ersten messbaren Einsparung** Realistisch: 18–24 Monate. Erste 6 Monate: Datenaufbereitung und Training. Monate 7–12: Validierung und Pilot auf einem Projekt. Monate 13–24: Erste echte Einsparungen, wenn das Surrogate in der Variantenselektion vor physischen Tests eingesetzt wird. **5. Größte Risiken** - Datenkonsistenz im Archiv nicht geklärt → vor Start bereinigen - Kein ML-Know-how intern → Dienstleister-Modell notwendig, long-term Abhängigkeit - Regulatorische Missinterpretation: Surrogate-Ergebnis ≠ Zulassungsnachweis — das muss das Team verstehen Möchtet ihr, dass ich die Simulation-Archiv-Struktur (Lastfälle, Geometrievarianz) genauer analysiere?

Quellen & Methodik

  • EDAG Engineering, „Effiziente Berechnung zum Euro-NCAP-Crashtest” (insights.edag.com, 2023): KI-Crash-Tool liefert Ergebnisse in 1–2 Tagen statt 4–6 Wochen; läuft auf mobiler Workstation ohne Rechenzentrum; 200–600 FEM-Simulationen für eine Fahrzeugfront als Branchenwert. Quelle: insights.edag.com/de/euro-ncap-crashtest-optimierung-fahrzeugentwicklung-mit-kuenstlicher-intelligenz
  • NVIDIA PhysicsNeMo / arxiv 2510.15201 (NVIDIA & General Motors, 2024): Traditionelle FEA = >15 Stunden auf HPC-Cluster; ML-Surrogate (GeoFlare) = Sekunden auf GPU-Workstation; L²-Fehler unter 1 % (Bumper) und unter 1,5 % (Body-in-White) für beste Modelle. Quelle: docs.nvidia.com/physicsnemo/latest; arxiv.org/abs/2510.15201
  • Miura Simulation, „Use of scarce crash simulation data to build efficient surrogate models” (miurasimulation.com, 2023): Surrogate-Optimierung möglich mit nur 20 Hochgenauigkeitssimulationen; Prediction in unter 1 Sekunde nach Training; Physikverständnis für sinnvolle Datentransformation unverzichtbar. Quelle: miurasimulation.com
  • Euro NCAP Virtual Testing Protocols (euroncap.com, 2024/2025): Far-Side virtual testing seit 2020, vollständig in Kraft ab 2024; 75-%-Qualifikationsschwelle für Verifikationstests; Crash Protection Virtual Testing Protocol v1.0, März 2025. Quellen: euroncap.com/media/85850/; euroncap.com/media/85832/
  • Neural Concept, „Simulation Crash Testing” (neuralconcept.com, 2024): Crashbox- und Battery-Encasing-Use-Cases; abhängig von Datenmenge und -konsistenz; physische Tests für Zertifizierung Pflicht. Quelle: neuralconcept.com
  • Preisangaben LS-DYNA, Altair HyperWorks, Neural Concept: Aus Vendr-Marktdaten (ANSYS typisch $100k–$320k/Jahr), eigenen Recherchen und Anbieter-Kommunikation (Stand April 2026). Keine öffentlichen Listenpreise für Enterprise-CAE-Software; alle Angaben sind Schätzkorridore, keine verbindlichen Angebote.

Willst du wissen, ob dein FEM-Datenarchiv als Trainingsgrundlage geeignet ist oder welcher Einstiegsweg für dein Team realistisch ist? Das klären wir gerne in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar