KI-gestützte Crashtest-Simulation und virtuelle Absicherung
KI-beschleunigte FEM- und Crashtestsimulationen reduzieren physische Prototypen um bis zu 60 % — und liefern Absicherungsergebnisse in Stunden statt Wochen.
Es ist Donnerstag, 14:47 Uhr. Dr. Tobias Kramer sitzt am Rechner und wartet. Wieder.
Tobias ist Berechnungsingenieur bei einem Tier-1-Zulieferer im Raum Stuttgart und verantwortet die Crashabsicherung einer neuen B-Säulenstruktur für eine Elektrofahrzeugplattform. Die Serienentscheidung ist in drei Wochen. Heute Morgen hat er eine Geometrievariante in den HPC-Cluster eingestellt — eine kleine Änderung an der Wandstärke im oberen Drittel, die der Konstrukteur gestern als Leichtbaumaßnahme vorgeschlagen hat. Laufzeit: voraussichtlich 16 Stunden.
Resultat kommt morgen früh. Wenn das Modell konvergiert.
Wenn nicht, beginnt die Fehlersuche von vorne. Und die drei anderen Varianten, die der Konstrukteur noch auf seiner Liste hat, kommen frühestens nächste Woche dran. Der physische Bauteiltest — 180.000 Euro Werkzeugkosten, vier Wochen Vorlauf, drei Fahrzeuge — steht für Mitte des nächsten Monats. Tobias muss bis dahin wissen, welche Variante er nominiert.
In dieser Lücke zwischen Simulation und Entscheidung verlieren Entwicklungsteams ihre schärfsten Wochen.
Das echte Ausmaß des Problems
Ein modernes Fahrzeug muss vor der Serienfreigabe eine Vielzahl von Crashszenarien bestehen: Frontalaufprall mit voller Überdeckung und 40-%-Überdeckung gegen eine deformierbare Barriere, seitlicher Pfahl- und Barrierenaufprall, Heckaufprall, Fußgängerschutz-Szenarien, Far-Side-Impact — und bei Elektrofahrzeugen zusätzlich Batteriezellen-Integritätstests. Für jede Variante eines Fahrzeugs, jede Plattformableitung, jede Baureihe.
Die Zahlen dahinter sind brutal: Für eine einzelne Fahrzeugfrontstruktur sind laut EDAG Engineering zwischen 200 und 600 FEM-Simulationen notwendig, um alle relevanten Aufprallpunkte und Konfigurationen abzudecken. Datenvorbereitung, Berechnung, Validierung und eventuelle Neuberechnung summieren sich auf vier bis sechs Wochen pro Iterationszyklus — mit einem hochperformanten Rechencluster, der weder günstig noch für jeden Tier-1 ständig verfügbar ist.
Die physischen Tests am Ende dieser Pipeline kosten je nach Testaufbau und Fahrzeugreife zwischen 100.000 und 600.000 Euro pro Versuch — inklusive Instrumentierung, Messtechnik, Crash-Dummies und der Vollausstattungs-Rohkarosse. Ein vollständiges Euro-NCAP-Testprogramm für eine neue Plattform bindet über den gesamten Entwicklungszyklus leicht zweistellige Millionenbeträge.
Für einen OEM mit mehreren gleichzeitigen Plattformprojekten ist das beherrschbar. Für einen Tier-1-Zulieferer, der für drei OEMs parallel Crashzulieferteile entwickelt, wird die CAE-Kapazität zum chronischen Engpass — besonders in den kritischen Phasen vor Serienentscheidungen.
Das strukturelle Problem: Die Simulationszeit begrenzt nicht die Qualität der Lösung, sondern die Anzahl der Lösungen, die ein Team überhaupt evaluieren kann. Welche Geometrievarianten bleiben wegen Zeitmangel ungeprüft? Welche Leichtbaumaßnahme wird aufgegeben, weil kein Simulationsslot mehr frei ist?
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI-Surrogate | Mit KI-Surrogate |
|---|---|---|
| Simulationszeit pro Variante | 8–20 Stunden (HPC-Cluster) | 3–30 Sekunden (GPU-Workstation) |
| Anzahl testbarer Varianten pro Woche | 3–10 | 500–5.000 |
| Zeitbedarf für Designoptimierung (DOE) | 4–6 Wochen | 2–5 Tage ¹ |
| Physische Tests vor Serienfreigabe | 8–15 Versuche | 4–8 Versuche ¹ |
| Benötigte Infrastruktur | HPC-Cluster, Rechenzentrum | GPU-Workstation reicht für Surrogate-Inferenz |
| Rechenkosten pro Evaluierung | 50–200 € (HPC-Zeit) | < 1 € (GPU-Inferenz) |
¹ Erfahrungswerte aus EDAG-KI-Crash-Projekten und Neural-Concept-Implementierungen; stark abhängig von Datenmenge, Trainingsqualität und Lastfall-Komplexität. Physische Testreduktion setzt eine regulatorisch konforme Validierungsstrategie voraus.
Der wichtigste Effekt ist nicht Geschwindigkeit per se — er ist der Übergang von Selektion zu Exploration. Ohne KI wählt das Team unter Zeitdruck die vielversprechendsten drei Varianten aus und simuliert diese. Mit KI werden Tausende Varianten durchfiltert, bevor die vier besten in die teure Vollsimulation gehen.
Einschätzung auf einen Blick
Zeitersparnis — maximal (5/5)
Kein anderer Anwendungsfall in der Automobilentwicklung hat eine vergleichbar dramatische Zeitdifferenz zwischen dem Status quo und dem KI-gestützten Ansatz. Von 16 Stunden HPC-Laufzeit auf 10 Sekunden GPU-Inferenz — das ist kein gradueller Unterschied, sondern ein Ordnungsgrößensprung. Das macht diesen Use Case zu dem mit dem höchsten Zeithebel in dieser Kategorie, auch wenn die initiale Einrichtung Monate dauert.
Kosteneinsparung — maximal (5/5)
Ein physischer Crashversuch kostet 100.000–600.000 Euro. Wenn vier bis sieben physische Tests eingespart werden — weil das Surrogate die unvielversprechenden Varianten herausfiltert, bevor teure Prototypen gebaut werden — sind sechs- bis siebenstellige Einsparungen pro Fahrzeugprojekt keine Ausnahme. Das macht diesen Use Case zum stärksten Kostenhebel in dieser Kategorie.
Schnelle Umsetzung — minimal (1/5)
Das ist der härteste Score in dieser Kategorie. Eine produktive KI-Surrogate-Integration in einen bestehenden Crash-CAE-Workflow dauert typisch 12–24 Monate: Datensichtung und -bereinigung, Modelltraining, Validierung gegen bekannte Tests, schrittweise Integration in den Freigabeprozess, regulatorische Absicherung. Kein Projekt dieser Komplexität geht schneller. Dieser Score ist beabsichtigt — er ist ehrlicher als jede Vereinfachung.
ROI-Sicherheit — mittel (3/5)
Der direkte Zeiteinsparungseffekt ist klar messbar. Schwieriger ist die Attribution: Wie viele physische Tests wurden wegen des Surrogates eingespart — und wie viele hätte man auch ohne KI eingespart, weil andere Design-Iterationen ohnehin nicht gebaut worden wären? Die regulatorische Unsicherheit (physische Tests bleiben Pflicht) begrenzt zudem die maximale Einsparung. Das ist kein schwacher ROI — aber kein so direkter Nachweis wie etwa bei automatisierter Rechnungsverarbeitung.
Skalierbarkeit — hoch (4/5)
Ein trainiertes Surrogate-Modell skaliert ohne proportionalen Mehraufwand auf weitere Varianten derselben Fahrzeugplattform. Weitere Lastfälle und neue Plattformprojekte erfordern allerdings Retraining — die Skalierbarkeit ist plattformintern stark, plattformübergreifend begrenzt.
Richtwerte — stark abhängig von Unternehmensgröße, CAE-Infrastruktur, Datenqualität und Fahrzeugplattform.
Was die KI-Simulation konkret macht
Der technische Ansatz heißt Surrogate Modeling oder Machine Learning-basierte Metamodellierung. Das Grundprinzip: Statt jede neue Designvariante durch eine vollständige FEM-Simulation zu schleusen, lernt ein neuronales Netz aus einer Sammlung bereits durchgeführter Simulationen das Verhalten des Bauteils — und kann dann neue, ungesehene Designvarianten in Sekundenbruchteilen einschätzen.
Der konkrete Ablauf
Phase 1 — Trainingsdaten aufbauen. Aus dem bestehenden Simulations-Archiv werden 50–200 historische FEM-Crashsimulationen (typisch Ansys LS-DYNA- oder Altair HyperWorks-Berechnungen) mit variierenden Geometrie- und Materialparametern extrahiert. Diese Daten werden vorverarbeitet: Netzgeometrie, Wandstärken, Materialparameter als Inputs; Intrusion, Energieabsorption, Kraft-Weg-Kurven und Karosserie-Deformation als Outputs.
Phase 2 — Modell trainieren. Plattformen wie Neural Concept oder NVIDIA PhysicsNeMo trainieren Graph-Neural-Networks auf diesen Daten. Der Trainingsprozess dauert typisch 5–15 Stunden auf einer leistungsstarken GPU — einmalig pro Lastfall und Plattform.
Phase 3 — Explorative Parameterstudien. Das trainierte Modell bewertet 1.000 oder 10.000 neue Designvarianten in Minuten — ohne HPC-Cluster, ohne Lizenzkosten pro Lauf. Ingenieure können Parameterräume explorieren, die zuvor rechnerisch unerreichbar waren.
Phase 4 — Selektion für Vollsimulation. Die vielversprechendsten 5–10 % der surrogat-evaluierten Varianten gehen in klassische Referenzsimulationen mit dem Vollmodell. Diese bleiben unverzichtbar — für die Dokumentation, für die regulatorische Absicherung und weil das Surrogate außerhalb seines Trainingsbereichs unzuverlässig werden kann.
Phase 5 — Physische Tests selektiv. Die besten Kandidaten aus den Vollsimulationen werden für Komponenten- und Systemtests vorgeschlagen. Die Anzahl physischer Versuche sinkt, weil das Surrogate die unvielversprechenden Optionen schon früh aussortiert hat.
Was das System nicht ist
Ein Crash-Surrogate ist kein eigenständiger Simulator. Es lernt Muster aus vorhandenen Simulationen — und ist nur so gut wie diese Daten. Neue Topologien (ein völlig anders aufgebautes Bauteil), andere Crash-Konfigurationen (anderer Aufprallwinkel, andere Barriere) oder neue Materialien außerhalb des Trainingsraums produzieren unzuverlässige Vorhersagen. Das System erkennt diese Fälle oft nicht als “außerhalb meiner Kompetenz” — es gibt trotzdem eine Zahl aus.
Das CAE-Ökosystem: Solver und Surrogate im Zusammenspiel
Wer diesen Use Case implementiert, muss zwei getrennte Softwarewelten zusammenbringen: die klassische FEM-Simulation und die KI-Surrogate-Schicht. Beide Welten haben ihre eigene Logik, ihre eigenen Formate, ihre eigenen Experten.
Die Solver-Seite
Der Industriestandard für explizite Crash-FEM-Simulation ist Ansys LS-DYNA. Nahezu alle globalen OEMs und Tier-1-Zulieferer haben Ansys LS-DYNA in ihrem CAE-Workflow. Simulationsdaten liegen als K-Files und d3plot-Ausgaben vor — das sind die Rohmaterialien, auf denen KI-Surrogate trainieren.
Die wichtigste Alternative ist Altair HyperWorks mit dem RADIOSS-Solver und dem spezialisierten HyperCrash-Preprocessing. RADIOSS liest LS-DYNA-Formate, was die Migration erleichtert. Ein eingebautes Surrogate-Modul (HyperStudy Fit) macht parametrische Optimierungen ohne separates ML-Tool möglich — weniger leistungsfähig als spezialisierte Plattformen, aber integrierter.
Für OEMs mit Dassault-Systèmes-Ökosystem übernimmt 3DEXPERIENCE mit SIMULIA (Abaqus/Explicit) eine ähnliche Rolle — ebenfalls EU-Datenhosting, allerdings andere Modellformate als Ansys LS-DYNA.
Die Surrogate-Schicht
Neural Concept ist die reifste spezialisierte Plattform für Crash-Surrogate in Europa — direkt auf LS-DYNA/RADIOSS/Abaqus-Daten trainierbar, EU-gehostet, aktive OEM-Referenzen in der Crashoptimierung.
NVIDIA PhysicsNeMo ist ein Open-Source-Framework für physics-informed ML-Modelle. Im Projekt von NVIDIA und General Motors (2024) reduzierte PhysicsNeMo die Simulationszeit von über 15 Stunden HPC-Laufzeit auf wenige Sekunden auf einer einzelnen GPU-Workstation. PhysicsNeMo ist frei verfügbar auf GitHub — erfordert aber erhebliche ML-Expertise für Integration und Training.
EDAG KI-Crash ist ein proprietäres Werkzeug des Ingenieurdienstleisters EDAG Engineering, das auf physikerweiterte neuronale Netze setzt. Das Tool liefert Ergebnisse für Euro-NCAP-Crashworthiness-Assessments in ein bis zwei Tagen statt vier bis sechs Wochen — und läuft laut EDAG auf einer mobilen Workstation ohne Rechenzentrumsanbindung. Als Dienstleistung nutzbar, keine eigene Lizenzierung notwendig.
Wann welcher Ansatz
- Eigene Solver-Landschaft ist LS-DYNA-basiert, ML-Expertise intern vorhanden → NVIDIA PhysicsNeMo + eigener ML-Stack (günstigster Weg, höchste Anforderungen)
- Spezialisierte Crash-Surrogate-Plattform gesucht, EU-Compliance wichtig → Neural Concept
- Altair HyperWorks-Ökosystem bereits vorhanden, einfacher Einstieg → HyperStudy Fit als erster Schritt
- Kein eigenes CAE-Team, aber Crashtest-Optimierung nötig → EDAG KI-Crash als Dienstleistung
Regulatorischer Rahmen — was Euro NCAP virtuell erlaubt
Das zentrale Missverständnis: KI-Surrogate ersetzen keine physischen Tests für die Homologation. Sie beschleunigen den Weg dahin.
Was aktuell virtuell gilt
Euro NCAP hat virtuelle Simulationen schrittweise in seinen Bewertungsprozess integriert. Seit 2020 wird die Far-Side-Impact-Bewertung (Seitenaufprall mit Verformung der Beifahrerseite) teilweise virtuell durchgeführt — das war der erste Lastfall, für den virtuelle Dossiers regulatorisch anerkannt wurden. Ab 2024 ist Far-Side virtuelles Testing vollständig in Kraft; Euro NCAP arbeitet an der Ausweitung auf Frontal- und HWS-Schutz-Bewertungen als Teil des 2030-Roadmaps.
Das Protokoll ist dabei strikt: Mindestens 75 Prozent der Euro-NCAP-Verifikationstests eines Szenarioclusters müssen die Qualifikationskriterien erfüllen — sonst wird das Simulationsdossier nicht akzeptiert. Hersteller müssen zusätzlich physische Validierungsversuche (Sled-Tests) einreichen, um die Übereinstimmung zwischen Simulation und realem Versuch zu belegen.
Was physisch Pflicht bleibt
Für alle Lastfälle, die Euro NCAP noch nicht als virtuell anerkannt hat — und das ist 2026 noch die Mehrheit der Crash-Testpunkte — sowie für die finale Typgenehmigung nach UN-ECE-Regularien (UN R94, R95, R137) bleibt der physische Test obligatorisch. Keine Behörde akzeptiert derzeit ein KI-Surrogate als Ersatz für einen physischen Crash.
Die KI-Einsparung liegt daher im Vorfeld: Welche Variante geht in den physischen Test? Das Surrogate filtert die Kandidaten so, dass der physische Test mit hoher Wahrscheinlichkeit besteht — und nicht als teurer Fehlversuch endet.
UN R137 — Frontalaufprall Vollüberdeckung
UN R137 (Frontalaufprall gegen deformierbare Barriere, 50 km/h) ist seit 2021 verbindlich für neue Fahrzeugtypen in der EU. Die Anforderungen an Fahrgastzellen-Integrität und Rückhaltesystem-Performance sind umfangreich und erfordern physische Nachweise. KI-Surrogate können hier die Entwicklungsphase erheblich beschleunigen, aber nicht den abschließenden physischen Test ersetzen.
Praktische Implikation für den Einkauf: Wer KI-Crash-Simulationsdienste von einem Dienstleister bezieht, muss sicherstellen, dass der Dienstleister den regulatorischen Kontext kennt und die Ergebnisse entsprechend einordnet. Ein „Surrogate sagt Bestehen” ist keine Zulassungsaussage.
Genauigkeitsschwellen und Validierung
Wie gut muss ein Crash-Surrogate sein, damit es als Entscheidungsgrundlage taugt? Die Antwort hängt davon ab, wofür man es einsetzt — und das ist eine Designfrage, keine technische.
Genauigkeit für Exploration vs. Selektion
Für explorative Parameterstudien (Tendenz: Welche Richtung ist vielversprechend?) ist eine relative Fehlerquote von 10–20 % oft ausreichend. Das Surrogate muss nicht exakt sein — es muss die Topkandidaten von den Schlechtesten trennen können.
Für selektive Vollsimulation (Welche 5 von 500 Kandidaten gehen in den HPC?) sind 5–10 % relativer Fehler auf kritische Größen wie maximale B-Säulen-Intrusion oder Energieabsorption anzustreben. Aktuelle Modelle wie NVIDIA PhysicsNeMo GeoFlare erreichen auf Bumper-Tests L²-Fehler von unter 1 % und auf Body-in-White-Crashes unter 1,5 %.
Für die regulatorische Dokumentation gilt: Nur Vollsimulationen mit dem validierten FEM-Solver zählen. Surrogate-Ergebnisse sind interne Entscheidungshilfen, keine Zulassungsgrundlage.
Das Out-of-Distribution-Problem
Jedes Surrogate-Modell hat eine Trainingsdomäne — den Parameterraum, den die historischen Simulationen abgedeckt haben. Außerhalb dieser Domäne degradiert die Genauigkeit, und das Modell erkennt das typischerweise nicht selbst. Es gibt trotzdem eine Zahl aus.
Konkrete Fälle, in denen Surrogate-Modelle für Crash versagen:
- Neue Topologie: Ein Konstrukteur schlägt eine Hohlstruktur mit inneren Rippen vor, die im Trainingsset nicht vorkommt. Das Modell hat keine Grundlage für diese Geometrie.
- Anderes Material: Ein neuer hochfester Stahl (HX420) mit anderem Versagensverhalten als die Trainingswerkstoffe.
- Anderer Aufprallwinkel: Das Trainingsset deckt 0° Frontalaufprall ab, aber das neue Szenario ist ein 15°-Schrägaufprall.
- Geometrie-Sprung: Wenn eine Blechdicke außerhalb des trainierten Parameterbereichs liegt — z.B. alle Trainingsläufe lagen bei 0,8–1,5 mm, ein neuer Vorschlag liegt bei 2,0 mm.
Die Validierungsstrategie muss dieses Risiko adressieren: Für jede neue Plattform oder jeden neuen Lastfall muss das Surrogate gegen eine Handvoll gezielter Referenzsimulationen validiert werden — bevor es produktiv eingesetzt wird.
Konkrete Werkzeuge — was wann passt
| Werkzeug | Ansatz | Stärke | Passt wenn… |
|---|---|---|---|
| Neural Concept | KI-Surrogate-Plattform | EU-gehostet, OEM-erprobt, für Crash optimiert | Spezialisierte Crash-Surrogate gesucht, EU-Compliance wichtig |
| Ansys LS-DYNA | FEM-Referenz-Solver | Industriestandard, Zulassungsbasis | CAE-Workflow-Basis und Trainingsdaten-Quelle |
| Altair HyperWorks | CAE-Suite mit Surrogate | Integriertes DOE + Surrogate (HyperStudy Fit) | Altair-Ökosystem bereits vorhanden; erster Einstieg |
| 3DEXPERIENCE | PLM-Suite mit SIMULIA | Abaqus/Explicit, EU-Cloud | Dassault-Ökosystem, OEM-PLM-Integration wichtig |
| NVIDIA PhysicsNeMo | Open-Source-ML-Framework | Höchste Genauigkeit, frei verfügbar | Starkes ML-Team intern; maximale Kontrolle gewünscht |
| EDAG KI-Crash | Dienstleistung | Kein eigenes Setup nötig, Euro-NCAP-konform | Kein internes KI-Team; schneller Einstieg über Dienstleister |
Zusammenfassung: Wann welche Strategie
- Erster Pilot, kein eigenes ML-Team → EDAG KI-Crash als Dienstleistung oder Neural Concept mit Onboarding
- Bestehendes Ansys LS-DYNA-Archiv, ML-Expertise intern → NVIDIA PhysicsNeMo (Open Source)
- Altair-Shop → HyperStudy Fit als Einstieg, Neural Concept für Skalierung
- Abaqus/SIMULIA-Umgebung → Neural Concept (trainiert auch auf Abaqus-Daten)
Datenschutz und Datenhaltung
Crash-Simulationsdaten sind Konstruktionsdaten — keine personenbezogenen Daten im Sinne der DSGVO. Der klassische AVV-Pfad nach Art. 28 DSGVO greift hier nicht primär. Relevanter ist der Schutz von Geschäftsgeheimnissen: Fahrzeuggeometrien, Materialparameter, Crashbox-Topologien und Versuchsergebnisse vor dem Launch sind hochsensibles Entwicklungs-IP.
Cloud vs. On-Premises
Das erste zu klärende Risiko ist Datenresidenz, nicht DSGVO:
- Neural Concept hostet Daten in der EU/Schweiz — für die meisten europäischen OEMs und Tier-1s akzeptabel. Vertragsgrundlage ist typisch ein NDA plus Data Processing Agreement (kein personenbezogener Datenschutz, aber IP-Schutz).
- NVIDIA PhysicsNeMo ist Open-Source und kann vollständig On-Premises auf eigenem HPC-Cluster oder in der firmeninternen Cloud betrieben werden — volle Datenkontrolle.
- EDAG KI-Crash als Dienstleistung bedeutet: Konstruktionsdaten gehen an EDAG. Für Fahrzeugkonzepte, die noch nicht öffentlich sind, ist ein striktes NDA mit definierten Datenlöschfristen Pflicht.
- Altair HyperWorks und Ansys LS-DYNA laufen typisch On-Premises auf dem eigenen HPC — kein Cloud-Datentransfer für die eigentliche Simulation.
Was mit eurem Datenschutzbeauftragten zu klären ist
Für Simulationsdaten, die ausschließlich technische Konstruktionsparameter enthalten (keine Personendaten), ist kein AVV im DSGVO-Sinne erforderlich. Wichtig ist aber eine IP-Schutzklausel im Dienstleistervertrag: Wer trainiert auf euren Daten? Werden Modelle nach Projektende gelöscht? Kann der Anbieter aus euren Daten lernen und dieses Wissen für andere Kunden nutzen?
Diese Fragen sind bei jedem KI-Anbieter im CAE-Bereich aktiv zu stellen — und vertraglich zu fixieren, bevor CAD-Modelle hochgeladen werden.
Was es kostet — realistisch gerechnet
Einmalige Kosten
- Datensichtung und -aufbereitung (FEM-Archiv bereinigen, Trainingsset zusammenstellen): 2–8 Wochen Ingenieurszeit intern; typisch 20.000–60.000 Euro wenn extern unterstützt
- Modelltraining und Validierung (Erstes Surrogate für einen Lastfall): 30.000–100.000 Euro für professionelles Onboarding (z.B. Neural Concept), oder 3–6 Monate ML-Engineering intern
- Infrastruktur (falls NVIDIA PhysicsNeMo On-Premises): Leistungsfähige GPU-Workstation (NVIDIA A100/H100-Klasse): 15.000–60.000 Euro einmalig; Cloud-GPU-Alternativen ab ~3 $/Stunde
Laufende Kosten
- Neural Concept: Subscription, Preise nur auf Anfrage; für ein OEM-Team typisch im unteren sechsstelligen Jahresbereich
- Altair HyperWorks HyperStudy Fit: Inbegriffen in bestehender HyperWorks-Lizenz (wenn vorhanden) — kein Zusatzpreis
- NVIDIA PhysicsNeMo: Open Source, kostenlos; laufende Kosten nur für GPU-Infrastruktur
- EDAG KI-Crash: Projektbasiertes Dienstleistungsmodell; für ein Fahrzeugprojekt typisch 50.000–200.000 Euro je nach Umfang
- Ansys LS-DYNA als Trainingsdaten-Solver: Typisch bereits vorhanden bei OEM/Tier-1; Jahreslizenzen sechs- bis siebenstellig
Was du dagegen rechnen kannst
Ein physischer Crashversuch (Komponentenebene Tier-1) kostet 80.000–250.000 Euro. Wenn das Surrogate fünf physische Fehlversuche verhindert, die ohne Vorfilterung nötig gewesen wären: 400.000–1.250.000 Euro eingespart, konservativ gerechnet. Das ist nicht der theoretische Maximum-Case — das ist, was passiert, wenn das Team bisher eine von fünf Varianten nominiert und diese dann im Test scheitert.
Die realistischere Zahl für ein einzelnes Fahrzeugprojekt (nicht gesamter Entwicklungszyklus): 2–4 eingesparte Versuche, also 160.000–1.000.000 Euro direkter Kosteneinsparung — plus die Entwicklungszeitverkürzung, die schwerer zu beziffern ist, aber für OEMs mit Markteinführungsterminen hoch bewertet wird.
Konservatives ROI-Szenario: Setup-Kosten 150.000 Euro, ein eingesparter physischer Test (100.000 Euro), 30 % schnellere Designoptimierungsphase (1 Ingenieurswoche gespart à 3.000 Euro = 3.000 Euro). Amortisation: Nicht in Jahr 1. Das hier ist ein strategisches Infrastrukturinvestment, kein Quick-Win.
Typische Einstiegsfehler
1. Mit dem falschen Lastfall starten.
Der Reflex: “Wir machen zuerst den komplexesten Lastfall — Frontalaufprall mit vollständiger Fahrzeugkarosse.” In der Praxis scheitert das fast immer, weil die Modellkomplexität die verfügbaren Trainingsdaten übersteigt. Lösung: Mit einem überschaubaren Komponenten-Lastfall starten — Crashbox, Stoßfänger, B-Säulen-Segment. Dort ist die Geometrievariabilität gering, die Datenlage oft gut, und ein erster valider Surrogate ist in 3–6 Monaten möglich. Erst danach eskalieren.
2. Trainingsdaten ohne Konsistenzprüfung verwenden.
Viele FEM-Archive enthalten Simulationen aus verschiedenen Projekten, verschiedenen Solver-Versionen, verschiedenen Materialmodellen und verschiedenen Netzdichten. Ein Surrogate, das auf inkonsistenten Daten trainiert, lernt Rauschen statt Physik. Lösung: Vor dem Training eine Datenklassifizierung durchführen — welche Simulationen sind für denselben Lastfall, dieselbe Geometriefamilie, dieselbe Solver-Version? Nur konsistente Subsets trainieren.
3. Surrogate-Ergebnisse ohne Validierung in Entscheidungen einbeziehen.
”Das Surrogate sagt, Variante 7 ist gut” — und das Team baut direkt den Prototyp. Ohne Validierung gegen eine Handvoll Referenzsimulationen (außerhalb des Trainingssets) ist diese Entscheidung blind. Lösung: Für jeden neuen Einsatzbereich mindestens 5–10 % der evaluierten Varianten mit Vollsimulationen gegenchecken. Die Accuracy-Metrics des Surrogates auf diesen Hold-Out-Datensätzen bestimmen, wie viel Vertrauen das Team in die Vorhersagen setzen darf.
4. Das Modell wird einmalig trainiert und dann unbegrenzt genutzt.
Das ist der gefährlichste Fehler — weil er still eskaliert.
Ein Crash-Surrogate trainiert auf Daten einer bestimmten Fahrzeugplattform und Materialgeneration. Wenn ein neuer hochfester Stahl eingeführt wird, ein Konstrukteur Geometriebereiche außerhalb des Trainingsparameters vorschlägt, oder die Plattform grundlegend geändert wird — produziert das Modell falsche Vorhersagen, ohne das anzuzeigen. Es gibt immer eine Zahl aus. Das Team verlässt sich auf diese Zahl, wählt die “beste” Variante — und scheitert beim physischen Test.
Die organisatorische Lösung: Jedes Surrogate-Modell braucht eine definierte Domänengrenze (welche Parameter- und Geometriebereiche wurden trainiert?), einen Retraining-Trigger (neue Materialien, Plattformänderung, Solver-Update), und eine namentlich benannte Person, die diese Grenzen kennt und kommuniziert. Das ist keine Aufgabe für die IT — es ist eine Aufgabe für den leitenden CAE-Ingenieur.
Was mit der Einführung wirklich passiert — und was nicht
Die technische Integration eines Crash-Surrogates ist im Vergleich zum kulturellen Wandel das kleinere Problem.
Der Glaubwürdigkeitstest. Erfahrene Crashberechnungsingenieure — Menschen, die seit Jahren FEM-Modelle aufbauen und die Grenzen dieser Methode kennen — werden einem neuronalen Netz zu Recht misstrauen. “Das Surrogate sagt, die Variante ist gut, aber ich sehe in der Deformationsoptik ein Problem” ist eine legitime Einschätzung, die das Team ernst nehmen muss. Lösung: Den Surrogate nie als Entscheidungsersatz präsentieren, sondern als Exploration-Tool. Die FEM-Ingenieure behalten das letzte Wort — das Surrogate filtert vor.
Der Kompetenz-Silo-Effekt. ML-Wissen und CAE-Wissen sind selten in einer Person vereint. Ein Projekt, das beide Welten verbinden muss, braucht entweder seltene Hybridprofile — oder ein funktionierendes Interface zwischen einem ML-Team und einem CAE-Team. Ohne dieses Interface entstehen Modelle, die technisch korrekt trainiert, aber für die Simulation des falschen Verhaltens zuständig sind. Lösung: Gemeinsame Kickoffs, in denen CAE-Ingenieure den ML-Ingenieuren erklären, warum Crash-Physik kompliziert ist — und welche Ausgabegrößen wirklich entscheidungsrelevant sind.
Der Langzeithorizont. Die erste Frage nach 6 Monaten: “Wann sparen wir wirklich Geld?” Das Surrogate reduziert erst dann physische Tests, wenn es gut genug validiert ist, um Vertrauen zu genießen. Das dauert länger als die Technik suggeriert. Ein realistischer Kommunikationsrahmen: “Im ersten Jahr bauen wir die Infrastruktur und validieren. Im zweiten Jahr explorieren wir damit, sparen aber noch keine physischen Tests. Im dritten Jahr beginnt die echte Amortisation.”
Was konkret hilft:
- Einen “Champion”-Ingenieur pro Projekt benennen, der beide Welten versteht oder aktiv als Übersetzer fungiert
- Ersten Pilot-Einsatz auf einem Projekt, bei dem der physische Test schon abgeschlossen ist — Surrogate-Ergebnisse für bekannte Outcomes validieren, bevor echte Entscheidungen damit getroffen werden
- Monatliche Review-Meetings: Welche Surrogate-Vorhersagen wurden durch Vollsimulationen oder Tests bestätigt, welche nicht?
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datensichtung & -auswahl | Monat 1–2 | FEM-Archiv inventarisieren, Trainingsset für ersten Lastfall definieren, Inkonsistente Simulations-Sets aussortieren | Archiv umfangreicher oder inkonsistenter als erwartet — Aufwand verdoppelt sich |
| Plattform-Setup & Training | Monat 3–5 | Tool-Auswahl (Neural Concept / NVIDIA PhysicsNeMo), Daten-Preprocessing, erstes Modelltraining auf Komponenten-Lastfall | ML-Team unterschätzt CAE-Spezifika: falsches Output-Feature als Zielgröße trainiert |
| Validierung & Kalibrierung | Monat 6–8 | Surrogate gegen Hold-Out-Simulationen testen, Accuracy-Metrics bestimmen, Domänengrenzen dokumentieren | Accuracy unzureichend — mehr Trainingsdaten oder Parametrisierungsänderung nötig |
| Pilot-Integration in Designprozess | Monat 9–12 | Erstes echtes Designprojekt mit Surrogate-gestützter Exploration begleiten, Vollsimulationen als Validierung parallel laufen lassen | Team ignoriert Surrogate-Ergebnisse, weil Vertrauen fehlt — Adoption-Problem |
| Skalierung & Retraining | Monat 12–24 | Weitere Lastfälle aufbauen, Plattformwechsel-Retraining, KPIs für physische Test-Reduzierung messen | Out-of-Distribution-Ereignis erzeugt Fehlvorhersage — sofortiger Vertrauensverlust |
Wichtig: Das ist ein 24-Monats-Investment, kein 6-Wochen-Projekt. Wer schnellere Ergebnisse braucht, sollte mit EDAG KI-Crash als Dienstleistung starten — und parallel die interne Infrastruktur aufbauen.
Häufige Einwände — und was dahintersteckt
„Unsere FEM-Ingenieure vertrauen dem KI-Modell nicht.”
Das ist kein irrationaler Widerstand — das ist Kompetenz. Ein guter FEM-Ingenieur weiß, was Simulationsmodelle falsch machen können, und überträgt das Misstrauen zu Recht auf das Surrogate. Die Lösung ist nicht Überzeugung, sondern Validation: Zeig, dass das Surrogate auf 20 bekannten Testcases korrekt liegt — bevor du es auf unbekannte anwendest. Dann entscheidet das Team auf Basis von Evidenz, nicht auf Basis von Vertrauen.
„Physische Tests bleiben doch Pflicht — was spart das dann?”
Korrekt. Physische Tests für die Homologation werden durch kein Surrogate ersetzt. Die Einsparung liegt in den physischen Tests, die scheitern, weil die falsche Variante nominiert wurde. Ein Surrogate filtert 95 % der schlechten Varianten raus, bevor teures Metall verformt wird. Zusätzlich: Entwicklungszeit. Wenn ein Redesign-Zyklus von 4 Wochen auf 3 Tage sinkt, kommen mehr Varianten zum Testen — und die beste hat mehr Zeit, bis zur Nominierung poliert zu werden.
„Wir haben nicht genug historische Simulationsdaten für das Training.”
Das ist die ehrlichste Ausschluss-Aussage, die es gibt. Unter 20–50 konsistenten Simulationen für denselben Lastfall ist ein sinnvolles Surrogate nicht trainierbar. Die Lösung ist nicht “Surrogate einführen” — sie ist “erstmal mehr Simulationsdaten produzieren und dokumentieren, damit wir in zwei Jahren starten können”. Diese Aussage verdient Respekt, nicht Rationalisierung.
„Das ist doch nur für OEMs — wir als Tier-1 können das nicht stemmen.”
Nicht mehr. Neural Concept hat aktive Referenzen bei europäischen Tier-1-Zulieferern. EDAG KI-Crash als Dienstleistung erfordert keine eigene Infrastruktur. Der Einstieg für ein Tier-1-Team mit 5–10 CAE-Ingenieuren und einem spezifischen Crashbox-Problem ist realistisch — wenn die Datenbasis stimmt.
Woran du merkst, dass das zu dir passt
- Dein CAE-Team führt mehr als 50 FEM-Crashsimulationen pro Jahr auf vergleichbaren Geometrien und Lastfällen durch — du hast die Trainingsdaten
- Deine Designoptimierungszyklen dauern 3–6 Wochen und der Engpass ist die Simulationskapazität, nicht die Konstruktionszeit
- Physische Crashtests scheitern gelegentlich, weil zu wenig Zeit war, alle vielversprechenden Varianten zu simulieren — das Surrogate würde genau diese Lücke schließen
- Du hast oder planst EV-Entwicklung: Batteriegehäuse-Crashabsicherung ist ein hervorragender Einstiegsfall für Surrogate — definierter Parameterraum, hohe Variationsvielfalt, klare Messgröße (maximale Intrusion)
- Dein Unternehmen hat Zugang zu ML-Expertise — intern oder über einen Dienstleister wie EDAG oder Neural Concept
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Weniger als ~50 historische FEM-Crashsimulationen auf demselben Lastfall und derselben Geometriefamilie. Ohne diese Datenbasis ist kein verlässliches Surrogate-Modell trainierbar. Der erste Schritt ist dann nicht KI-Einführung, sondern Simulation-Workflow-Aufbau: Mehr simulieren, besser dokumentieren, konsistenter parametrisieren — damit in 12–24 Monaten ein Trainingsdatensatz vorhanden ist.
-
Kein expliziter FEM-Crash-Solver im Einsatz (kein Ansys LS-DYNA, kein RADIOSS, kein Abaqus/Explicit). Statische Struktursimulationen mit impliziten Solvern wie Nastran sind keine Grundlage für Crash-Surrogate — die Physik ist eine andere. Ohne Crash-Solver gibt es keine Trainingsdaten, kein Modell, keinen Einstieg.
-
Kein CAE-Ingenieur mit Crash-Spezialwissen im Haus oder als verlässlichen Partner. Ein ML-Team allein — ohne jemanden, der die Crash-Physik versteht, kritische Ausgabegrößen kennt und das Surrogate-Verhalten hinterfragen kann — produziert Modelle, die technisch gut trainiert sind und trotzdem das falsche Problem lösen. ML ohne Domain-Expertise ist in diesem Bereich nicht nur nutzlos, sondern potenziell gefährlich: Es gibt Zahlen aus, die niemand hinterfragen kann.
Das kannst du heute noch tun
Statt eines teuren Einstiegs gibt es einen konkreten Erkenntnisschritt, der nichts kostet: Hol drei bis fünf der häufigsten offenen Fragen aus deinem letzten Crashtest-Projekt heraus und beschreibe je Frage, wie viele Simulationsläufe du dafür gebraucht hättest — und wie viele du tatsächlich durchgeführt hast.
Diese Lücke ist dein Business Case. Wenn sie größer als 3 Varianten pro Frage ist und du mehr als 10 Fragen pro Projekt hast, lohnt es sich, eine Machbarkeitsstudie zu beauftragen (EDAG oder Neural Concept bieten initiale Assessment-Sessions an).
Für einen ersten Eindruck, was ein Surrogate leisten kann, ohne eigene Daten und ohne Infrastruktur: Das NVIDIA PhysicsNeMo-Beispiel für Crash-Surrogate ist open-source auf GitHub verfügbar (NVIDIA/physicsnemo, Verzeichnis examples/structural_mechanics/crash). Wer PyTorch-Kenntnisse hat, kann das Tutorial-Modell auf dem mitgelieferten Bumper-Datensatz lokal trainieren — ein guter Einstieg, um die Methode zu verstehen, bevor Entwicklungsbudget bewilligt wird.
Wenn dein Team den Business Case formulieren will, hier ist ein Prompt, der das strukturiert:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- EDAG Engineering, „Effiziente Berechnung zum Euro-NCAP-Crashtest” (insights.edag.com, 2023): KI-Crash-Tool liefert Ergebnisse in 1–2 Tagen statt 4–6 Wochen; läuft auf mobiler Workstation ohne Rechenzentrum; 200–600 FEM-Simulationen für eine Fahrzeugfront als Branchenwert. Quelle: insights.edag.com/de/euro-ncap-crashtest-optimierung-fahrzeugentwicklung-mit-kuenstlicher-intelligenz
- NVIDIA PhysicsNeMo / arxiv 2510.15201 (NVIDIA & General Motors, 2024): Traditionelle FEA = >15 Stunden auf HPC-Cluster; ML-Surrogate (GeoFlare) = Sekunden auf GPU-Workstation; L²-Fehler unter 1 % (Bumper) und unter 1,5 % (Body-in-White) für beste Modelle. Quelle: docs.nvidia.com/physicsnemo/latest; arxiv.org/abs/2510.15201
- Miura Simulation, „Use of scarce crash simulation data to build efficient surrogate models” (miurasimulation.com, 2023): Surrogate-Optimierung möglich mit nur 20 Hochgenauigkeitssimulationen; Prediction in unter 1 Sekunde nach Training; Physikverständnis für sinnvolle Datentransformation unverzichtbar. Quelle: miurasimulation.com
- Euro NCAP Virtual Testing Protocols (euroncap.com, 2024/2025): Far-Side virtual testing seit 2020, vollständig in Kraft ab 2024; 75-%-Qualifikationsschwelle für Verifikationstests; Crash Protection Virtual Testing Protocol v1.0, März 2025. Quellen: euroncap.com/media/85850/; euroncap.com/media/85832/
- Neural Concept, „Simulation Crash Testing” (neuralconcept.com, 2024): Crashbox- und Battery-Encasing-Use-Cases; abhängig von Datenmenge und -konsistenz; physische Tests für Zertifizierung Pflicht. Quelle: neuralconcept.com
- Preisangaben LS-DYNA, Altair HyperWorks, Neural Concept: Aus Vendr-Marktdaten (ANSYS typisch $100k–$320k/Jahr), eigenen Recherchen und Anbieter-Kommunikation (Stand April 2026). Keine öffentlichen Listenpreise für Enterprise-CAE-Software; alle Angaben sind Schätzkorridore, keine verbindlichen Angebote.
Willst du wissen, ob dein FEM-Datenarchiv als Trainingsgrundlage geeignet ist oder welcher Einstiegsweg für dein Team realistisch ist? Das klären wir gerne in einem kurzen Gespräch.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Qualitätsprüfung in der Fertigung
KI-Kamerasysteme erkennen Produktionsfehler in Millisekunden — lückenlos, schichtunabhängig, mit Quellennachweis für jeden geprüften Teil.
Mehr erfahrenPredictive Maintenance Produktion
KI analysiert Sensordaten von Fertigungsanlagen und prognostiziert Wartungsbedarf — bevor der Stillstand eintritt.
Mehr erfahrenFahrzeugkonfiguration mit KI
Ein KI-Assistent führt Kunden durch die Fahrzeugkonfiguration, erklärt Optionen verständlich und erhöht die Abschlussquote.
Mehr erfahren