KI-gestützte Rezepturoptimierung für Compounds
Machine-Learning-Modelle durchsuchen historische Formulierungsdaten und schlagen Rezepturoptimierungen vor — statt monatelanger Trial-and-Error-Versuchsreihen im Labor.
Es ist Donnerstag, 14:10 Uhr.
Matthias sitzt in seinem Labor in Nordrhein-Westfalen. Acht Wochen Versuchsreihe für eine neue flammgeschützte PA66-Formulierung — und Testmischung 34 zeigt endlich das richtige Brandverhalten, aber der Schmelzflussindex ist zu hoch. Jetzt wieder von vorne: Stabilisator-Konzentration anpassen, Verträglichkeitsvermittler neu abwiegen, drei Tage warten bis zum Extrusionsergebnis, eine Woche bis zum Brandtest-Bericht vom externen Institut.
Im Hintergrund läuft eine Excel-Datei mit 2.400 Zeilen. Jede Zeile ist ein Versuch aus den letzten acht Jahren. Rohstoffkomponenten, Konzentrationen, Prozessparameter, Messergebnisse. Die Datei heißt “Versuchshistorie_FINAL_v3_NEU.xlsx” und wird nur von Matthias gepflegt, weil sonst niemand die Systematik kennt.
Wenn Matthias in Urlaub ist, ruft sein Kollege an.
Und wenn Matthias in drei Jahren in Rente geht, beginnt das Wissen aus 2.400 Versuchen zu verblassen.
Das echte Ausmaß des Problems
Compoundierer und Kunststoffhersteller wissen es selbst: Die wertvollste Ressource des Unternehmens ist nicht die Extruderanlage — es ist die angesammelte Formulierungskenntnis. Und diese Kenntnis liegt meistens in drei Orten gleichzeitig: in Excel-Dateien mit Eigenlogik, in den Köpfen erfahrener Laborleiter und in Aktenordnern mit handgeschriebenen Notizen.
Das Problem manifestiert sich in zwei Arten von Verlusten:
Entwicklungszeit: Ein neues Compound von der Idee bis zur Serienreife braucht in kleinen und mittleren Compoundierunternehmen typisch 3 bis 9 Monate — hauptsächlich, weil Versuche iterativ und ohne systematische Vorhersage geplant werden. Jede Testreihe wartet auf Laborergebnisse, die 3 bis 5 Arbeitstage brauchen. Externe Prüfinstitute für Norm-Tests (UL94, DIN EN, ISO) kosten 2 bis 3 Wochen zusätzlich je Zyklus.
Wissensverlust: Wenn ein erfahrener Laborleiter das Unternehmen verlässt, geht ein erheblicher Teil des impliziten Formulierungswissens verloren. Wer weiß noch, warum Versuch 847 funktioniert hat, obwohl alle Modelle sagten, er sollte es nicht? Diese Erfahrung steckt in keiner Excel-Zeile.
Forscher der Georgia Tech haben gezeigt, dass ML-gestützte Plattformen für Polymer-Formulierungen bis zu 70 % der notwendigen Laborversuche einsparen können, indem sie Kandidaten mit geringer Erfolgswahrscheinlichkeit herausfiltern (ScienceDaily, August 2024). In industriellen Pilotprojekten mit Bayesian Optimization wurden in 15 Arbeitstagen neun spezifikationskonforme Kandidatenformulierungen gefunden, für die traditionell mehrere Monate nötig gewesen wären.
Das ist nicht Theorie. Das ist laufende Praxis bei Großkonzernen — und kommt jetzt in den Mittelstand.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI (Trial & Error) | Mit ML-gestützter Optimierung |
|---|---|---|
| Iterationszyklen je Neuentwicklung | 15–50 Laborversuche | 5–15 priorisierte Versuche |
| Entwicklungszeit (Idee bis Laborfreigabe) | 3–9 Monate | 3–8 Wochen |
| Nutzung historischer Versuchsdaten | Manuell, personenabhängig | Systematisch, maschinenlesbar |
| Wissenstransfer bei Personalwechsel | Kritischer Wissensverlust | Wissen im Modell kodiert |
| Qualität von Rezyklat-Einarbeitung | Experimentell, unvorhersehbar | ML schätzt Eigenschaftsveränderungen ab |
| Anforderungen ans Laborteam | Jede Entscheidung aus Erfahrung | Modell priorisiert, Mensch validiert |
Die Verbesserungswerte entstammen veröffentlichten Forschungsprojekten (Georgia Tech / ScienceDaily 2024, Polymerize-Kundendaten) und sind für gut dokumentierte Laborhistorien mit über 500 Einträgen realistisch. Bei geringerer Datenbasis oder hoher Rohstoffvariabilität fallen die Gewinne kleiner aus.
Einschätzung auf einen Blick
Zeitersparnis — hoch (4/5) Das ist der klar stärkste Nutzen: Iterationszyklen, die bisher Wochen dauerten, werden auf Tage komprimiert. Nicht weil die Laborarbeit schneller wird, sondern weil weniger davon nötig ist. Statt 30 Versuche systematisch durchzutesten, schlägt das Modell die 8 vielversprechendsten vor — und die anderen 22 entfallen. Bei Entwicklungsprojekten mit engen Lieferterminen ist das der entscheidende Vorteil. Einschränkung: Die Zeitersparnis tritt erst nach der mehrmonatigen Implementierungsphase ein. Das macht diesen Use Case zum Gegenteil einer Schnellstarter-Lösung.
Kosteneinsparung — mittel (3/5) Weniger Laborversuche bedeutet weniger Materialverbrauch, weniger Technikerzeit und weniger externe Prüfkosten. Das ist real und messbar. Der Haken: Die Implementierungskosten — Datenbankaufbau, Datenbereinigung, Modelltraining, Softwarelizenz — sind erheblich und amortisieren sich langsam. Compoundierer, die ohnehin sehr effizienten Forschungsprozessen haben, sehen hier weniger Spielraum. Den größten Kostengewinn zieht, wer bisher wirklich aufwendige Entwicklungsprojekte hat und externe Institute stark beansprucht.
Schnelle Umsetzung — sehr niedrig (1/5) Der schwerste Haken. Dieser Use Case hat die längste Anlaufzeit in dieser Kategorie. Bevor ein ML-Modell nützliche Vorhersagen machen kann, müssen historische Daten strukturiert vorliegen, bereinigt und konsolidiert werden. Das dauert bei einem Betrieb mit 5+ Jahren Laborhistorie typisch 6 bis 12 Monate Vorarbeit — und dieser Schritt ist nicht abkürzbar. Unternehmen, die ihre Versuchsdaten nie strukturiert digital erfasst haben, beginnen de facto bei null. Rechne mit 12 bis 24 Monaten bis zum operativen System.
ROI-Sicherheit — niedrig (2/5) F&E-ROI ist notorisch schwer isolierbar. Wäre das neue Produkt auch ohne KI-Unterstützung entstanden — nur langsamer? Hat die Zeitverkürzung zu einem Marktvorsprung geführt, der Umsatz brachte? Diese Kausalitätsfragen lassen sich selten sauber beantworten. Was messbar ist: Anzahl der Laborversuche vorher und nachher, externe Prüfkosten. Was nicht messbar ist: verpasste Aufträge wegen langsamer Entwicklung, Wettbewerbsvorteil durch schnellere Markteinführung. Der ROI ist real — aber du wirst ihn nicht mit einer Formel beweisen können.
Skalierbarkeit — sehr hoch (5/5) Hier liegt die eigentliche Stärke. Jede neue Produktklasse, jeder neue Rohstofflieferant, jede neue Zielanwendung fügt dem Modell Wissen hinzu — ohne dass proportional mehr Laboraufwand entsteht. Wer das System heute für flammgeschützte Polyamide baut, profitiert morgen auch für TPE-Formulierungen, weil das Grundmuster der Optimierungslogik übertragbar ist. Skalierbarkeit bedeutet hier auch: Das System wird mit der Zeit besser statt schlechter — im Gegensatz zu einer Karteikarte, die nicht lernt.
Richtwerte — stark abhängig von Umfang und Qualität der historischen Labordaten sowie Rohstoffstabilität.
Was das System konkret macht
Das technische Fundament ist Machine Learning, speziell in der Form von Bayesian Optimization und Regression-Modellen auf Formulierungsdaten. Die Idee klingt einfacher als sie ist: Das Modell lernt aus historischen Versuchsdaten, welche Rohstoffkombinationen unter welchen Prozessparametern welche Materialeigenschaften erzeugen. Dann dreht es den Prozess um: Wenn du Zielwerte definierst (Zugfestigkeit mindestens 45 MPa, Schmelzflussindex 8–12 g/10 min, UL-94-V0-Konformität), berechnet das Modell Formulierungskandidaten, die diese Ziele mit hoher Wahrscheinlichkeit treffen.
Bayesian Optimization ist dabei nicht einfach “ML auf Tabellen werfen”. Der Algorithmus wählt gezielt die Versuchspunkte aus, die den größten Erkenntnisgewinn bringen — ähnlich wie ein erfahrener Forscher, der nicht systematisch jeden Punkt im Parameterraum testet, sondern intuitiv dort bohrt, wo die Lücken in seinem Wissen am größten sind. Das reduziert notwendige physische Versuche drastisch.
Praktisch sieht das so aus: Du gibst dem System deine Zielspezifikation ein. Es schlägt 10 bis 20 Formulierungsvorschläge vor — priorisiert nach geschätzter Erfolgswahrscheinlichkeit. Dein Labor testet diese Kandidaten physisch, trägt die Ergebnisse ein, und das Modell lernt aus jedem neuen Datenpunkt. In den nächsten Runden werden die Vorschläge präziser.
Was das System nicht kann
Es kann nur aus Daten lernen, die du ihm gibst. Wenn bestimmte Rohstoff-Kombinationen in deiner Historie nie aufgetaucht sind — weil du sie nie probiert hast oder weil der Rohstoff erst neu im Markt ist — hat das Modell dazu keine Aussagekraft. Für grundlegend neue Materialklassen ohne historische Analogien beginnt auch KI mit Trial and Error. Der Wert liegt in der Beschleunigung der inkrementellen Entwicklung, nicht in der Erfindung des Unbekannten.
Konkrete Werkzeuge — was wann passt
Polymerize — Bisher am stärksten auf die industrielle Compoundier- und Kunststoffentwicklung ausgerichtete KI-Plattform. Enthält über 35 domänenspezifische Vorhersagemodelle für Materialeigenschaften und bringt eine Unified Data Foundation mit, die historische Labordaten aus LIMS, Excel und ERP strukturiert. Vorteil: erklärbare KI — jede Empfehlung zeigt, welche Rohstoffkomponente wie zum Ergebnis beiträgt. Nachteil: US-gehostet, kein deutschsprachiger Support, Preis auf Anfrage (Marktschätzung: ab 1.500 USD/Monat für kleinere Teams). Geeignet für Compoundierer mit 500+ digitalisierten Versuchsdatensätzen.
ChatGPT und Claude — Nicht als Formulierungsrechner, aber als leistungsfähige Unterstützung bei der Strukturierung der Laborhistorie, dem Schreiben von Auswertungsroutinen in Python, der Dokumentation von Rezepturen in einem standardisierten Format und der Vorbereitung der Datenbasis für ein späteres ML-System. Viele Unternehmen beginnen sinnvoll hier: Historische Daten aufräumen und strukturieren, bevor teure Spezialplattformen eingesetzt werden. Kostenlos bis zu einer Nutzungsgrenze.
Microsoft Excel + Power Query + Azure ML — Für Unternehmen mit starken Excel-Kompetenzen und bestehender Microsoft-Infrastruktur: historische Laborprotokolle in Power Query konsolidieren, bereinigen und in Azure ML laden. Das erlaubt einfache Regressionsmodelle auf eigener Infrastruktur ohne Abhängigkeit von US-SaaS-Anbietern. Komplexer in der Implementierung, aber vollständige Datensouveränität auf EU-Infrastruktur.
Zusammenfassung:
- Spezialisierte Polymer-KI mit 500+ Datenpunkten → Polymerize
- Datenstrukturierung und Vorstufe → ChatGPT / Claude
- Microsoft-getriebene Eigenentwicklung → Azure ML auf bestehender Basis
Datenschutz und Datenhaltung
Formulierungsdaten sind Betriebsgeheimnisse — oft das Kernstück des Wettbewerbsvorteils eines Compoundierers. Der Schutz dieser Daten ist nicht nur eine DSGVO-Frage, sondern eine wirtschaftliche.
Polymerize ist US-gehostet (Singapore HQ, US-Infrastruktur). Bevor du Rezepturdaten hochlädst, braucht es einen Auftragsverarbeitungsvertrag und eine interne Risikoabwägung: Welche Daten sind so sensibel, dass sie das Haus nicht verlassen sollten? Eine pragmatische Lösung: Anonymisierte Versuchsdaten (ohne Rohstofflieferanten-Klarnamen, ohne Produktkürzel, nur numerische Eigenschaften) hochladen — das reduziert das Risiko erheblich.
Microsoft Azure in der EU-Region (West Europe oder Switzerland North) bietet vollständig EU-konforme Datenverarbeitung, was bei sensiblen Formulierungsgeheimnissen die sicherere Wahl ist. Mit Azure ML kannst du dasselbe tun wie mit Polymerize — allerdings mit mehr Entwicklungsaufwand und ohne domänenspezifische Vortraining-Vorteile.
Intern eingesetzte LLM-Assistenten (ChatGPT, Claude) sollten keine vollständigen Rezepturen in Prompts erhalten — Tippregeln zum Prompt-Inhalt sind hier sinnvoll. Was als “Beispiel” in einen ChatGPT-Prompt fließt, kann theoretisch als Trainingsdaten genutzt werden, wenn du nicht die Enterprise-Variante mit ausdrücklichem Opt-out nutzt.
Was es kostet — realistisch gerechnet
Vorbereitungskosten (Datenaufbau) Der teuerste Teil ist nicht die Software — es ist die Datenaufbereitung. Wer zehn Jahre Laborhistorie in Excel hat: Rechne mit 3 bis 6 Personenmonaten interner Aufbereitungsarbeit oder 15.000–40.000 Euro externe Unterstützung, um die Daten in einem ML-tauglichen Format zu haben.
Softwarekosten
- Polymerize: Marktschätzung 1.500–5.000 USD/Monat je nach Nutzungstiefe und Team-Größe (offizielle Preise nur auf Anfrage)
- Azure ML: 100–800 Euro/Monat Infrastruktur, plus interne Entwicklerzeit
- ChatGPT / Claude für Vorbereitungsarbeiten: 20–40 Euro/Person/Monat
Wann amortisiert sich das? Das hängt vollständig davon ab, wie teuer und wie häufig deine aktuellen Entwicklungsprojekte sind. Ein Betrieb, der pro Jahr 3 Neuentwicklungen mit je 4 Monaten Aufwand und 50.000 Euro externen Prüfkosten hat, kann durch Halbierung der Entwicklungszeit erheblichen Wert freisetzen. Für einen Betrieb mit einem Neuentwicklungsprojekt pro Jahr und 8 Wochen Entwicklungszeit ist der ROI deutlich schlechter.
Wie du den Nutzen misst Vor der Einführung: Durchschnittliche Anzahl Laborversuche je abgeschlossenem Entwicklungsprojekt und durchschnittliche Entwicklungszeit dokumentieren. Das ist die Baseline. Nach der Einführung: dieselben Metriken, direkt vergleichbar. Alles andere — Umsatzgewinn durch schnellere Markteinführung, verhinderte Auftragsausfälle — ist wichtig, aber nicht isolierbar.
Drei typische Einstiegsfehler
1. Schlechte Daten in das System laden und auf gute Vorhersagen hoffen. ML-Modelle lernen aus Daten. Wenn die historischen Laborprotokolle Fehler enthalten — doppelte Einträge, inkonsistente Einheiten, fehlende Werte, unterschiedliche Prüfmethoden für dieselbe Eigenschaft — trainiert das Modell auf Rauschen. Das führt zu Vorhersagen, die schlechter sind als die Erfahrung deines besten Laborleiters. Datenaufbereitung ist kein Schritt vor dem Projekt, es ist das Projekt. Rechne mindestens 50 % der Gesamtprojektzeit dafür ein.
2. Das System als autonomen Entwickler behandeln. Kein ML-Modell ersetzt den Laborchemiker. Das System priorisiert Kandidaten — es bewertet nicht, ob ein Rohstoff in deinem Lager ausreichend vorhanden ist, ob ein Lieferant verlässlich liefert, ob eine Rezeptur auf deiner Extruderanlage prozessierbar ist oder ob dein Vertrieb die Qualitätsanforderungen des Kunden richtig verstanden hat. All das bleibt menschliche Aufgabe. Wer das System als “Rezepturautomaten” einführt, erlebt Enttäuschung.
3. Ohne Pilotprojekt mit einer bekannten Produktklasse starten. Der häufigste Implementierungsfehler ist der Versuch, sofort mit dem komplexesten Entwicklungsproblem zu beginnen. Das macht Fehlerkommunikation und Modellvalidierung schwer — weil man nicht weiß, ob das Modell schlecht ist oder das Problem schlicht schwieriger als erwartet. Starte mit einer Produktklasse, bei der du die Antwort schon weißt: 80 % bekannte Formulierungen, 20 % Neuentwicklung. Dann kannst du die Modellqualität validieren, bevor du es auf unbekanntes Terrain schickst.
Was mit der Einführung wirklich passiert
Laborleitende werden dieses System anfangs mit gesunder Skepsis betrachten — und das ist richtig so. Sie haben gelernt, durch Erfahrung und Intuition zu navigieren. Ein Algorithmus, der aus Tabellen Empfehlungen ableitet, erscheint ihnen zunächst als Vereinfachung von etwas Komplexem.
Diese Skepsis auflösen geht nicht durch Präsentationen, sondern durch ein kleines Pilotprojekt: Lass das Modell auf einer abgeschlossenen Entwicklung arbeiten, deren Ergebnis bereits bekannt ist. Wenn das Modell rückblickend den erfolgreichen Kandidaten unter seine Top-5 einordnet, hat das mehr Überzeugungskraft als jede Demonstration.
Was sich in der Arbeitsweise verändert: Laborleitende arbeiten mehr an Datenpflege und Modellinterpretation, weniger an systematischen Testreihen. Das ist eine echte Tätigkeitsveränderung — für manche attraktiv (mehr strategisches Denken), für andere eine Herausforderung (weniger “Hands-on”-Laborarbeit). Frühzeitig darüber sprechen hilft mehr als es zu ignorieren.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Daten-Inventur und Bereinigung | Monat 1–6 | Alle historischen Versuchsdaten strukturieren, doppelte Einträge entfernen, Einheiten harmonisieren, Lücken dokumentieren | Datenmenge deutlich größer oder schlechter als erwartet — externe Unterstützung einplanen |
| Plattformauswahl und Setup | Monat 4–8 | Tool evaluieren, Datenschutzprüfung, Importkonfiguration | DSGVO-Prüfung für US-Anbieter zieht sich länger als geplant |
| Pilotmodell trainieren | Monat 8–12 | Modell auf einer Produktklasse trainieren, mit bekannten Ergebnissen validieren | Modell zeigt keine bessere Vorhersageleistung als Zufallsauswahl — Trainingsdaten zu wenig oder zu unrein |
| Erstes echtes Entwicklungsprojekt | Monat 12–15 | Neues Compound mit KI-Unterstützung entwickeln, Laborverifizierung | Mehr Versuche als vorhergesagt nötig — Erwartungsmanagement wichtig |
| Regelbetrieb | Ab Monat 16 | Jedes Neuentwicklungsprojekt läuft mit KI-Vorselektion, Modell wird mit jedem Versuch besser | Datenpflege wird vernachlässigt — Modellqualität degradiert langsam |
Häufige Einwände — und was dahintersteckt
„Unser Know-how liegt in den Köpfen — das lässt sich nicht digitalisieren.” Teilweise stimmt das. Implizites Erfahrungswissen — “Ich weiß, dass Lieferant B immer etwas zu viel Restfeuchte im Granulat hat” — lässt sich nicht direkt in eine Tabelle schreiben. Aber das Versuchsergebnis, das sich daraus ergeben hat, schon. Das Modell lernt indirekt aus den Auswirkungen, auch wenn es die Ursache nicht kennt. Und: Der Tag, an dem der erfahrene Laborleiter das Unternehmen verlässt, zeigt schmerzhaft, wie viel tatsächlich “nur in seinem Kopf” war — und wie wenig davon dokumentiert ist.
„Wir haben zu wenige Daten — das rechnet sich nicht.” Unter 200 bis 300 strukturierten Versuchen ist es schwer, ein zuverlässiges Modell zu trainieren. Das stimmt. Aber auch in diesem Fall lohnt es sich, mit der Strukturierung der historischen Daten zu beginnen — schon deshalb, weil du damit den Wissensverlust beim nächsten Personalwechsel minimierst. Das ML-Modell kommt dann, wenn die Datenbasis ausreicht. Die Datenaufbereitung selbst ist nie verschwendete Arbeit.
Woran du merkst, dass das zu dir passt
Das passt gut zu deinem Betrieb, wenn:
- Du mehr als 3 Neuentwicklungsprojekte pro Jahr hast, bei denen Laboriterationen 2+ Monate kosten
- Deine Laborhistorie digital vorliegt — auch wenn unstrukturiert — mit mindestens 300 dokumentierten Versuchen
- Du einen erfahrenen Laborleiter hast, der in den nächsten 3–5 Jahren das Unternehmen verlassen könnte (Wissenssicherung-Perspektive)
- Rezyklate mit variierender Qualität in deine Compounds eingearbeitet werden sollen
Das passt noch nicht, wenn:
- Deine Laborhistorie überwiegend in Papierform oder in verschlossenen Köpfen steckt
- Du weniger als 2 Neuentwicklungsprojekte pro Jahr hast (zu wenig Volumen für den Aufwand)
- Dein Budget für externe Software unter 20.000 Euro/Jahr liegt und du keine IT-Ressourcen hast
- Du grundlegend neuartige Materialklassen entwickelst, für die es keine historischen Analogien gibt
Das kannst du heute noch tun
Öffne deine älteste Versuchsprotokoll-Excel-Datei und stelle dir eine Frage: Könnte ein neuer Laborchemiker aus dieser Datei allein herauslesen, warum Versuch 847 funktioniert hat? Wenn die Antwort nein ist, hast du ein Dokumentationsproblem — und das ist der erste Schritt, den du vor jeder KI-Einführung lösen musst.
Fange heute an, eine standardisierte Tabellenstruktur zu definieren: Rohstoffname, CAS-Nummer (wenn vorhanden), Konzentration in Gewichtsprozent, Prozessparameter, gemessene Materialeigenschaften, Prüfnorm, Ergebnis. Jede Zeile: ein Versuch. Keine verbundenen Zellen. Kein Farbcoding als Information. Das ist der Datenbaustein, aus dem später ein ML-Modell lernen kann.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- ScienceDaily / Georgia Tech (August 2024): “Using AI to Find the Polymers of the Future” — ML-gestützte Polymer-Informatics, Beschleunigung von Formulierungsprozessen; sciencedaily.com
- PlasticsToday (2024): “How AI Is Revolutionizing Polymer Development” — industrielle Anwendungen in der Compoundierung; plasticstoday.com
- Polymerize (2024/2025): Produktdokumentation und veröffentlichte Fallstudien zur Materials Intelligence Plattform; polymerize.io
- Journal of Materials Chemistry A (2025): “Machine learning applications in polymer composites” — Review zu ML-Methoden in der Polymerforschung; RSC Publishing
- Digitalzentrum Chemnitz (2024): Praxisprojekt “Produktqualität steigern – mit KI zur Qualitätsprognose” — KMU-Anwendungsbeispiele; digitalzentrum-chemnitz.de
- Eigene Einschätzungen bezüglich Implementierungszeiten und Kosten basierend auf publizierten Industrieprojekten; keine repräsentative Erhebung
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
KI-Qualitätskontrolle im Spritzguss
Computer-Vision-Systeme prüfen 100 % der Spritzgussteile inline auf Einfallstellen, Grate und Oberflächenfehler — statt 5 % Stichprobe durch müde Prüfer.
Mehr erfahrenKI-Wartungsassistent für Spritzgussmaschinen
Ein KI-Assistent kennt alle Maschinenhandbücher, Störungshistorien und Wartungsprotokolle — und gibt Technikern in Sekunden die richtige Antwort, wenn eine Maschine stillsteht.
Mehr erfahrenEnergieverbrauch an Extrudern optimieren
KI analysiert in Echtzeit, welche Einstellungen einen 500-kW-Extruder mit 12–18 % weniger Strom laufen lassen — ohne Qualitätsverlust.
Mehr erfahren