Glasrezeptur-Optimierung: Rohstoffmix und Schmelzenergie KI-gestützt abstimmen
Glasrezepturen balancieren optische Eigenschaften, Schmelzpunkt und Rohstoffkosten — ein mehrdimensionales Optimierungsproblem. ML-Modelle finden bessere Rezeptur-Energie-Kompromisse als manuelle Iteration.
- Problem
- Glasrezepteure kombinieren SiO₂, Na₂O, CaO, B₂O₃ und Zusatzstoffe nach Erfahrungswissen und teuren Probeschmelzen. Eine Rezepturoptimierung bei schwankenden Rohstoffpreisen (Soda +40% in 2022) erfordert Neuberechnungen, die Wochen dauern und mehrere Probeschmelzen kosten (5.000–15.000 € je Kampagne). Die Wechselwirkungen zwischen Rohstoffanteilen und resultierenden Eigenschaften sind hochkomplex.
- KI-Lösung
- ML-Surrogatmodell lernt den Zusammenhang zwischen Rezeptur (Oxide, Zusätze), Schmelztemperatur und Zielqualitäten (Viskositätskurve, Ausdehnungskoeffizient, UV-Transmission) aus historischen Schmelzdaten. Bayesianische Optimierung findet Rezepturkandidaten mit minimalem Energieeinsatz, die Spezifikation erfüllen.
- Typischer Nutzen
- Zahl der notwendigen Probeschmelzen um 40–60% reduzierbar. Rohstoffkostenoptimierung bei gleichbleibender Qualität 5–15% Einsparung. Rezepturwissen wird systematisch dokumentiert statt in Expertenkopf zu verbleiben.
- Setup-Zeit
- 10–20 Monate bis Routinebetrieb — Datenbasis dominiert den Zeitplan
- Kosteneinschätzung
- 50.000–150.000 € Einrichtung, 0 €/Monat Lizenzkosten (Open Source)
Es ist Donnerstag, 14:32 Uhr.
Martina ist Glasrezepteurin in einem Spezialglas-Hersteller in Thüringen, der technische Gläser für Beleuchtung und Medizintechnik produziert. Auf ihrem Schreibtisch liegt die aktuelle Rohstoffpreisliste ihres Soda-Lieferanten: Natriumcarbonat hat sich gegenüber dem Vorjahr um 37 Prozent verteuert. Gleichzeitig besteht ein Großauftrag über UV-durchlässiges Borosilikat — ein Glas, dessen Rezeptur seit acht Jahren unverändert ist, weil jede Änderung Probeschmelzen erfordert, die das Unternehmen 8.000 bis 12.000 Euro je Kampagne kosten.
Martina weiß, dass die Rezeptur optimierbar wäre. Der B₂O₃-Anteil lässt sich mit billigendem SiO₂ partiell substituieren, ohne die Viskositätskurve zu verlassen — in der Theorie. Ob die neue Rezeptur die UV-Transmission in Spezifikation hält, wie sich der Ausdehnungskoeffizient verändert und wie das Gemenge schmilzt, weiß sie erst nach dem Versuch. Und der Versuch kostet, wie immer, zwei Wochen Vorlaufzeit und eine Probeschmelze.
Sie beginnt mit der Planung der ersten Versuchsreihe. Fünf Rezepturvarianten, drei Probeschmelzen minimum. Sechs Wochen bis zum ersten belastbaren Ergebnis — wenn nichts schiefgeht.
Während sie die Tabelle aufbaut, klingelt ihr Telefon. Der Einkaufsleiter: Ob sie wisse, dass der Soda-Lieferant die nächste Preiserhöhung für Oktober angekündigt hat. Weitere 22 Prozent.
Das echte Ausmaß des Problems
Glasrezepturen sind mehrdimensionale Optimierungsprobleme. Wer in einem Kalk-Natron-Glas den Na₂O-Anteil um einen Prozentpunkt senkt, um Soda zu sparen, verändert gleichzeitig Schmelzpunkt, Viskositätskurve, Ausdehnungskoeffizient und chemische Beständigkeit — nicht linear, nicht voneinander unabhängig. Für Spezialglasrezepturen mit fünf bis zehn Oxidkomponenten plus Läuterungsmitteln und Färbezusätzen liegt der Parameterraum bei Hunderten von Kombinationen, von denen die meisten die Spezifikation verfehlen.
Die traditionelle Antwort auf dieses Problem ist Erfahrungswissen und Probeschmelze. Ein Rezepteur mit 20 Jahren Praxis weiß, welche Substitutionen plausibel sind, und grenzt den Raum intuitiv ein. Eine Probeschmelze im Tiegelofen bestätigt oder widerlegt die Hypothese. Das funktioniert — aber es ist langsam und teuer.
Was Probeschmelzen kosten: Eine Laborschmelze im 1-kg-Tiegelofen kostet — inklusive Ofen-Energie, Rohmaterialien, Laborzeit und Analytik — typischerweise 2.000–5.000 € pro Kampagne (Schätzwert aus Praxisberichten; stark abhängig von Glastyp und Analytikaufwand). Eine Pilotschmelze im 50-bis-200-kg-Maßstab, die industrielle Bedingungen simuliert, kostet 8.000–20.000 € je Versuch. Wer eine neue Rezeptur mit fünf bis acht Varianten systematisch durchläuft, investiert leicht 40.000–100.000 € in Entwicklungskosten — bevor die erste Tonne Glas produziert wird.
Was Rohstoffpreisschwankungen auslösen: Sodaasche (Na₂CO₃) ist einer der Hauptrohstoffe in Kalk-Natron-Glas. In 2022 stiegen die Preise für Soda um bis zu 40 Prozent gegenüber dem Vorjahresdurchschnitt (Industrieverband Glasfaser und Flachglas, Marktbericht 2022). Borax und Borsäure — Schlüsselrohstoffe für Borosilikatglas — schwankten ähnlich. Ein Hersteller mit einem jährlichen Rohstoffeinkauf von 2 Millionen Euro spürt solche Preisbewegungen mit 400.000 bis 800.000 Euro direktem Mehraufwand — wenn die Rezeptur nicht angepasst wird.
Das Problem: Die Anpassung der Rezeptur kostet Monate und Tausende Euro. Also bleibt die Rezeptur wie sie ist, solange es irgendwie geht. Rohstoffpreis-Entwicklungen werden durch Marge aufgefangen statt durch Rezepturoptimierung. Das ist die strukturelle Trägheit, die ML-Methoden adressieren können.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Manuell | Mit ML-gestützter Optimierung |
|---|---|---|
| Probeschmelzen je Rezepturoptimierung | 5–15 Versuche | 2–6 Versuche (ML liefert priorisierte Kandidaten) |
| Iterationszyklen bis Spezifikation | 3–8 Monate | 1–3 Monate — bei bestehender Schmelzdatenbank |
| Reaktionszeit auf Rohstoffpreisänderungen | 6–18 Monate bis neue Rezeptur eingeführt | 2–6 Monate — wenn Modell bereits trainiert ist |
| Dokumentation von Rezepturwissen | Im Kopf des Experten oder in Excel-Notizen | Strukturierte Datenbank, reproduzierbar, auditierbar |
| Rohstoffkosteneinsparung durch Substitution | Kaum systematisch möglich — zu aufwändig | 5–15 % auf Rohstoffkosten bei gleichbleibender Qualität (konservative Schätzung aus Praxisberichten) |
| Einstiegskosten | Laborzeit + Probeschmelzkosten je Versuch | 50.000–150.000 € Projektaufwand + Datenbasisaufbau |
Der Vergleich zeigt: Der Nutzen ist real, aber er setzt eine vorhandene Schmelzdatenbank mit belastbaren historischen Daten voraus. Ohne diese Datenbasis funktioniert das Modell nicht — dazu mehr in der Kostensektion.
Einschätzung auf einen Blick
Zeitersparnis — mittel (3/5) Iterationszyklen werden spürbar kürzer — von typisch drei bis acht Monaten auf ein bis drei Monate, wenn das Modell eine belastbare Schmelzdatenbank zur Verfügung hat. Experimentelle Validation bleibt aber unverzichtbar: Kein Surrogatmodell ersetzt die Bestätigungsschmelze. Im Vergleich zu Inspektionssystemen, die Schichtstunden einsparen, oder Glasbruch-Analysetools, die Reklamationsklärungen von Wochen auf Tage verkürzen, ist der Zeitgewinn hier eher auf Monatsbasis zu messen — deshalb der mittlere Wert.
Kosteneinsparung — mittel (3/5) 5–15 % auf Rohstoffkosten klingt gering, ist es bei 2 Millionen Euro Jahreseinkauf aber nicht: Das sind 100.000–300.000 € theoretisch (konservative Schätzung aus Praxisberichten). Dazu kommt die Einsparung von Probeschmelzkosten: Wer pro Optimierungszyklus drei statt zehn Probeschmelzen braucht, spart 30.000–70.000 € je Entwicklungsprojekt. Das ist real, aber nicht auf dem Niveau der Ausschussreduzierungs-Anwendungsfälle dieser Branche, die monatlich sechsstellige Beträge bewegen können.
Schnelle Umsetzung — schwierig (2/5) 10 bis 20 Monate sind ein realistischer Korridor: Erst muss eine Schmelzdatenbank mit mindestens 100–200 dokumentierten Versuchen aufgebaut werden (sofern nicht bereits vorhanden), dann Modelltraining und Validierung, dann prozessuale Integration in den Entwicklungsablauf. Das ist eines der langwierigsten Projekte dieser Branche — Glasbruch-Ursachenanalyse oder Produktdokumentation sind in Wochen einsatzbereit, nicht Jahren.
ROI-Sicherheit — gering (2/5) Das Surrogatmodell muss erst ausreichend Daten sehen, bevor es verlässliche Vorschläge macht. In der Praxis heißt das: Die ersten 6–12 Monate nach Go-live liefert das Modell unsichere Kandidaten, die trotzdem experimentell validiert werden müssen. Der ROI-Nachweis dauert entsprechend lang — ein echter Unsicherheitsfaktor im Vergleich zu Ausschuss-Inspektionssystemen, bei denen die Einsparung ab der ersten Schicht messbar ist.
Skalierbarkeit — schwierig (2/5) Das ist die ehrlichste Einschränkung: Jede Glasfamilie (Kalk-Natron, Borosilikat, Aluminosilikat, Spezialglas) braucht ein eigenes Modell. Die Wechselwirkungen zwischen Oxiden sind so typspezifisch, dass ein für Kalk-Natron-Glas trainiertes Modell keine Aussagen für Borosilikat treffen kann. Das bedeutet: Pro Glasfamilie eine separate Datenbasis und ein separates Trainingsproject. Wer fünf Produktgruppen optimieren will, hat fünf Projekte vor sich — kein skalenfreier Ansatz.
Richtwerte — stark abhängig von Glastyp, Größe der vorhandenen Schmelzdatenbank und technischer Infrastruktur.
Was das System konkret macht
Ein ML-gestütztes Rezepturoptimierungssystem arbeitet in zwei Stufen:
Stufe 1: Surrogatmodell (Wissensmodell)
Das Surrogatmodell — typischerweise ein Gaussian Process oder ein neuronales Netz — lernt aus historischen Schmelzdaten den Zusammenhang zwischen Rezepturkomposition (Oxidanteile in Gewichtsprozent) und Zieleigenschaften. Zieleigenschaften sind je nach Glastyp:
- Viskosität bei Verarbeitungstemperatur (η bei T_g, T_working, T_softening)
- Thermischer Ausdehnungskoeffizient (CTE)
- Chemische Beständigkeit (ISO 719, ISO 720)
- Optische Transmission in relevanten Wellenlängenbereichen
- Liquidustemperatur (Entglasungsrisiko)
- Schmelztemperatur und -energie (Ofenlast)
Das Modell braucht mindestens 80–150 dokumentierte Schmelzversuche mit bekannter Rezeptur und gemessenen Eigenschaften, um belastbare Vorhersagen zu liefern. Wer bereits eine gut gepflegte Laborschmelzdatenbank hat, kann diese Hürde schnell überwinden. Wer von Null anfängt, muss sie systematisch aufbauen — das ist die zeitintensivste Phase.
Stufe 2: Bayesianische Optimierung (Suchstrategie)
Das Surrogatmodell allein sagt, welche Eigenschaften eine Rezeptur voraussichtlich hat. Es sagt nicht, welche Rezeptur die beste ist. Dafür kommt Bayesianische Optimierung zum Einsatz: ein Algorithmus, der den Rezepturraum intelligent durchsucht, indem er gezielt dort experimentiert, wo das Modell die größte Unsicherheit hat oder wo es den besten Kompromiss zwischen Zieleigenschaften erwartet.
In der Praxis bedeutet das: Das System schlägt pro Optimierungsrunde 3–8 Rezepturkandidaten vor — priorisiert nach erwartetem Outcome, nicht nach Zufallsprinzip. Der Rezepteur validiert die interessantesten Kandidaten experimentell und gibt die Ergebnisse zurück ins Modell. Das Modell wird besser mit jeder Schmelze. Nach 3–5 Runden ist die Konvergenz typischerweise deutlich besser als nach 15 Zufallsversuchen.
Was das System nicht kann
Das Modell optimiert innerhalb der Grenzen, die der Rezepturraum und die Physik setzen. Es kann keine Rezeptur vorschlagen, die außerhalb des bekannten Parameterraums liegt, ohne stark zu interpolieren — und in diesen Extrembereichen werden die Modellvorhersagen unsicherer. Wer wirklich neue Glastypen entwickeln will (nicht nur bestehende optimieren), braucht zusätzlich experimentelle Daten aus dem neuen Parameterbereich. Außerdem: Das Modell ersetzt nicht die Bestätigungsschmelze. Jeder vielversprechende Kandidat muss experimentell validiert werden — das ist kein Fehler des Systems, sondern ein Grundprinzip der Materialentwicklung.
Konkrete Werkzeuge — was wann passt
Ax (Facebook/Meta Research) — Open-Source-Bibliothek für Bayesianische Optimierung und adaptive Experimente, entwickelt von Meta AI Research. Ax ist speziell für den Fall gebaut, dass Experimente teuer sind (genau das ist bei Probeschmelzen der Fall): Die Bibliothek minimiert die Zahl der nötigen Versuche durch intelligente Kandidatenauswahl. Geeignet für Unternehmen mit einem internen Python-Entwickler oder Data-Scientist, die volle Kontrolle über Modellparameter und Datenpipeline wollen. Kostenlos, EU-konform wenn On-Premise betrieben. Kein UI — reine Programmierumgebung.
Optuna — Ebenfalls Open-Source-Optimierungs-Framework (präferiert in der Industrie für ML-Hyperparameter-Tuning, aber direkt auf Materialoptimierung anwendbar). Optuna hat eine intuitivere API als Ax und ist einfacher zu starten, wenn das Team schon Python-Kenntnisse hat. Die Visualisierungstools (Parallel-Coordinate-Plots, Importance-Analysis) helfen, die wichtigsten Rezepturparameter zu identifizieren. Empfehlenswert als erster Einstieg wenn bereits ein Python-Datenanalyse-Workflow besteht.
SciGlass / GlassNet (Corning/proprietär) — Kommerzielle Datenbanken mit hunderttausenden dokumentierten Glasrezepturen und Eigenschaften. SciGlass enthält mehr als 350.000 Gläser aus der Literatur und eignet sich hervorragend, um das eigene Surrogatmodell mit extern validierten Daten anzureichern — insbesondere wenn die interne Schmelzdatenbank zu klein für eine belastbare Modellierung ist. Kein KI-System im eigentlichen Sinne, aber ein kritischer Datenbeschleuniger in der Startup-Phase des Projekts.
Custom-Entwicklung mit Python + scikit-learn / GPyTorch — Wer höchste Flexibilität braucht und das nötige Data-Science-Know-how hat, baut das Surrogatmodell direkt. Gaussian Processes (GPyTorch) sind der bevorzugte Modelltyp für Schmelzdaten — sie quantifizieren Unsicherheit explizit, was bei kleinen Datensätzen (unter 200 Datenpunkten) wichtiger ist als reine Vorhersagegenauigkeit. Neuronale Netze werden erst bei mehr als 500 Datenpunkten besser. Diese Option ist die aufwändigste, bietet aber maximale Anpassbarkeit an proprietäre Glastypen und firmenspezifische Qualitätskriterien.
Zusammenfassung:
- Einstieg mit kleiner Datenbasis, internes Team vorhanden → Optuna + GPyTorch
- Datenbasis zu dünn für eigenes Modell → erst SciGlass-Lizenz für Anreicherung
- Bayesianische Optimierung mit Produktionsfokus, kein eigenes Team → Ax mit externem Dienstleister
- Volle Eigenentwicklung, proprietäres Glasportfolio → Custom Python/GPyTorch
Datenschutz und Datenhaltung
Glasrezepturen sind Betriebsgeheimnisse — das ist keine Übertreibung. Für Spezialglas-Hersteller sind proprietary Rezepturen oft das wichtigste Differenzierungsmerkmal gegenüber dem Wettbewerb. Das hat direkte Konsequenzen für die Systemarchitektur:
- On-Premise oder Private Cloud. Alle Lösungen — ob Ax, Optuna oder ein Custom-Modell — können vollständig lokal betrieben werden. Das ist die Standardempfehlung: Kein Rezepturansatz verlässt das interne Netz.
- Keine Cloud-KI-Dienste für Rezepturdaten. ChatGPT, Gemini und andere Large Language Models sind für diesen Anwendungsfall nicht geeignet — nicht wegen technischer Limitationen, sondern wegen des Datenrisikos. Wer Rezepturdaten an externe Dienste schickt, muss sicherstellen, dass kein Training auf diesen Daten stattfindet. Das lässt sich bei SaaS-Diensten kaum vollständig ausschließen.
- DSGVO: Rezepturdaten enthalten keine personenbezogenen Daten im DSGVO-Sinne. Trotzdem sollte bei jedem externen Dienstleister ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO geschlossen werden — schon aus vertraglicher Sorgfaltspflicht.
- Zugriffssteuerung: Die Schmelzdatenbank muss gegen unbefugten Zugriff gesichert sein. Wer die historischen Schmelzdaten hat, hat im Wesentlichen die Rezepturhistorie des Unternehmens.
Was es kostet — realistisch gerechnet
Projektaufwand für Aufbau und Modell:
| Phase | Aufwand | Kosten |
|---|---|---|
| Schmelzdatenbank strukturieren und befüllen | 2–6 Monate interner Aufwand | Interne Laborzeit: 15.000–40.000 € |
| Surrogatmodell bauen und validieren | 2–4 Monate (externer Data Scientist oder intern) | 20.000–50.000 € (Dienstleister) oder 3–5 Monate interner Aufwand |
| Bayesianische Optimierung integrieren | 1–2 Monate | Im vorigen Schritt enthalten oder 5.000–10.000 € zusätzlich |
| Validierungsschmelzen für Modell-Feedback | Laufend während Aufbau | 4–6 Probeschmelzen × 3.000–8.000 € = 12.000–48.000 € |
| Gesamt Aufbauphase | 10–20 Monate | 50.000–150.000 € einmalig |
Laufende Kosten:
- Interne Pflege und Modellaktualisierung: 0,1–0,2 FTE pro Glasfamilie
- Software: Ax, Optuna, scikit-learn — alles Open Source, keine Lizenzkosten
- Server/Infrastruktur: minimal (läuft auf einer normalen Workstation)
Was du gegenzurechnen kannst:
Konservatives Rechenbeispiel: Rohstoffeinkauf 2.000.000 €/Jahr, Einsparpotenzial durch Rezepturoptimierung 8 % (unteres Ende des Praxiskorridors 5–15 %, konservative Schätzung):
2.000.000 € × 8 % = 160.000 € Einsparung jährlich
Dazu: Probeschmelzen-Einsparung. Ohne System 10 Probeschmelzen je Optimierungszyklus à 8.000 € = 80.000 €. Mit System 4 Probeschmelzen à 8.000 € = 32.000 €. Differenz je Zyklus: 48.000 €. Bei zwei Optimierungszyklen pro Jahr: 96.000 € gespart.
Kombiniert: ca. 256.000 € jährlich — bei einem Aufbauaufwand von 100.000 € ergibt das eine theoretische Amortisationszeit von unter einem Jahr, sobald das Modell läuft. Vorsicht: Diese Rechnung setzt voraus, dass das Surrogatmodell valide Vorschläge macht und die Rohstoffsubstitution ohne Qualitätsverlust realisierbar ist. Beide Bedingungen sind in der Praxis nicht garantiert — der echte ROI zeigt sich frühestens nach 12–18 Monaten Betrieb.
Drei typische Einstiegsfehler
1. Mit Modellbau beginnen, bevor die Datenbasis steht. Das ist der häufigste Fehler und der teuerste. Ein Gaussian-Process-Modell, das auf 30 Datenpunkten trainiert ist, hat hohe Unsicherheit und liefert Vorschläge, die in mehr als der Hälfte der Fälle experimentell nicht funktionieren. Das frustriert das Team und diskreditiert den gesamten Ansatz — obwohl das Werkzeug stimmt und nur die Basis fehlt. Lösung: Phase 1 ist immer Datenbasis. Das Ziel für das erste Jahr ist Daten sammeln und strukturieren — nicht modellieren. 80 gut dokumentierte Versuche mit konsistenter Analytik sind mehr wert als 200 schlecht dokumentierte.
2. Nur Rohstoffkosten als Optimierungsziel setzen. Wer das Modell ausschließlich auf Kostensenkung optimiert, erhält Rezepturen, die zwar billig, aber schwieriger zu schmelzen sind: höhere Schmelztemperaturen, mehr Energieeinsatz, erhöhtes Entglasungsrisiko. Die Einsparung bei Rohstoffen wird durch höhere Energiekosten und mehr Ausschuss teilweise aufgefressen. Lösung: Multikriterielle Optimierung von Anfang an — Rohstoffkosten, Schmelzenergie, Prozessfensterbreite und Qualitätseigenschaften müssen gleichzeitig als Zielfunktion definiert werden. Das ist technisch anspruchsvoller, aber die einzig belastbare Grundlage.
3. Das Erfahrungswissen des Rezepteurs nicht ins Modell einbeziehen. ML-Modelle sind gut darin, Muster in Daten zu finden. Sie sind schlecht darin, physikalisch unmögliche Bereiche des Parameterraums zu ignorieren. Ein erfahrener Rezepteur weiß: Unter einem bestimmten SiO₂-Anteil wird das Glas entglasen. Über einem bestimmten B₂O₃-Anteil steigen die Rohstoffkosten überproportional. Diese Constraints gehören explizit ins Modell — als harte Grenzen, nicht als weiche Präferenzen. Wer das versäumt, erhält Vorschläge, die das Modell für gut hält, die aber kein erfahrener Rezepteur je probieren würde.
Was mit der Einführung wirklich passiert — und was nicht
Der Anwendungsfall scheitert selten am Algorithmus. Er scheitert an der Datenbasis und am Vertrauen in Modellvorschläge.
Das typische Muster: Das erste Modell wird aufgebaut, liefert Vorschläge, die experimentell getestet werden — und zwei von drei Kandidaten funktionieren nicht. Die Schlussfolgerung des Entwicklungsteams: “Das Modell taugt nichts.” Die eigentliche Ursache: Das Modell hatte erst 60 Datenpunkte und war in den getesteten Bereichen des Parameterraums nicht hinreichend abgedeckt. Nach weiteren 30 dokumentierten Schmelzen würde es deutlich besser werden — aber das Team hat aufgehört, es zu verwenden.
Das zweite Muster: Der erfahrene Rezepteur vertraut dem Modell grundsätzlich nicht. Er hat zwanzig Jahre Erfahrung und hat schon gesehen, wie “Computersysteme” in der Vergangenheit schlechte Empfehlungen gemacht haben. Er nutzt das System nicht — oder testet nur Kandidaten, die er sowieso getestet hätte. Das Modell lernt nicht weiter, weil keine neuen Daten hineingegeben werden.
Beide Muster lassen sich vermeiden, wenn von Anfang an klar kommuniziert wird: Das Modell ist ein Entscheidungsassistent, kein Entscheidungsautomator. Es priorisiert Kandidaten, die es für vielversprechend hält — aber der Rezepteur entscheidet, welche davon getestet werden. Die Ergebnisse fließen zurück ins Modell, ob positiv oder negativ. Das Vertrauen entsteht über Monate, nicht über Nacht.
Reziepteur-Einbindung von Tag eins: Der erfahrene Rezepteur sollte den Constraint-Raum definieren (welche Oxidanteile sind physikalisch sinnvoll?), die Analytik-Protokolle festlegen und die ersten Kandidaten auswählen. Das ist keine Alibi-Beteiligung — das sind unverzichtbare Beiträge, die das Modell besser machen.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Datenbasis-Audit | Monat 1–2 | Vorhandene Schmelzdaten sichten, Qualität bewerten, Lücken identifizieren | Daten sind in Papierform oder inkonsistent dokumentiert — Digitalisierung dauert länger als geplant |
| Datenbasis aufbauen / ergänzen | Monat 2–8 | Strukturierte Dokumentation neuer Schmelzversuche, SciGlass-Recherche für externe Referenzdaten | 80 valide Datenpunkte brauchen mehr Zeit als erwartet — besonders wenn Analytik (Ausdehnungskoeffizient, Viskositätsmessung) nicht im eigenen Labor vorhanden ist |
| Surrogatmodell-Aufbau | Monat 8–12 | Modell trainieren, Vorhersagequalität validieren (Leave-one-out-Cross-Validation), Unsicherheitsquantifizierung prüfen | Modell hat schlechte Vorhersagequalität in wichtigen Qualitätsdimensionen — mehr Daten oder andere Modellarchitektur nötig |
| Erste Optimierungsrunde | Monat 12–15 | Bayesianische Optimierung für eine konkrete Rezepturaufgabe, Kandidaten experimentell validieren | Validierungsschmelzen bestätigen Modellvorhersagen nicht — erfordert Fehleranalyse und Nachbesserung der Datenbasis |
| Routinebetrieb | Ab Monat 15–20 | System wird in den regulären Entwicklungsablauf integriert, Modell wächst mit jeder neuen Schmelze | Personalwechsel — wer das Modell pflegt und die Datenbasis weiterentwickelt, muss klar definiert sein |
Häufige Einwände — und was dahintersteckt
„Unsere Glasrezepturen sind zu komplex für ein Modell.” Das klingt plausibel, ist es aber nur begrenzt. Surrogatmodelle müssen die Physik des Glases nicht verstehen — sie müssen nur lernen, welche Rezepturen in der Praxis welche Eigenschaften ergeben. Das ist eine statistische Aufgabe, keine physikalische Simulation. Wo die Physik wirklich zu komplex ist (vollständig neue Glastypen jenseits des bekannten Parameterraums), ist das Modell tatsächlich schwächer. Für Optimierungen innerhalb einer bekannten Glasfamilie — das ist der Normalfall — ist das Argument nicht stichhaltig.
„Wir haben keine ausreichende Datenbasis.” Das ist oft der ehrlichste Einwand und verdient eine ehrliche Antwort: Wenn weniger als 50 gut dokumentierte Schmelzversuche vorliegen, sollte noch kein Optimierungsmodell gebaut werden. Aber: Die Lösung ist nicht “wir machen das nicht”, sondern “wir fangen mit dem Datenbasisaufbau an”. Jede neue Schmelze wird von jetzt an strukturiert dokumentiert — nach spätestens zwei bis drei Jahren hat man genug Material. SciGlass-Daten können die eigene Basis ergänzen.
„Ein externer Dienstleister würde unsere Rezepturen kennen.” Das ist ein legitimes Risiko — aber kein K.o.-Kriterium. Die Open-Source-Tools (Ax, Optuna, scikit-learn) können vollständig intern von einem eigenen Data Scientist betrieben werden, ohne dass externe Parteien Zugriff auf die Rohdaten brauchen. Wer intern kein Know-how hat, kann einen Dienstleister unter NDA und mit Data-Processing-Agreement engagieren, der die Implementierung macht, ohne die Rezepturdetails zu sehen — das erfordert aber sorgfältige Vertragsgestaltung.
Woran du merkst, dass das zu dir passt
- Du optimierst Rezepturen regelmäßig — mindestens zwei bis drei Mal pro Jahr aufgrund von Rohstoffpreisschwankungen, Kundenvorgaben oder Produktentwicklung
- Du hast oder kannst aufbauen: mindestens 80 dokumentierte Schmelzversuche in einer konsistenten Glasfamilie mit gemessenen Zieleigenschaften
- Deine Probeschmelzkosten liegen bei über 5.000 € je Kampagne — darunter ist der Aufwand für ein ML-System wahrscheinlich nicht zu rechtfertigen
- Du hast Zugang zu einem Data Scientist — intern oder extern — der Python beherrscht und bereit ist, in das Thema Materialoptimierung einzuarbeiten
- Deine Rohstoffkosten sind ein relevanter Kostenblock — unter 500.000 € Jahreseinkauf ist das Optimierungspotenzial in absoluten Zahlen zu klein für den Projektaufwand
Wann es (noch) nicht passt — drei harte Ausschlusskriterien:
-
Schmelzdatenbank unter 50 validen Datenpunkten für die Zielglasgruppe. Kein Modell kann aus weniger Daten verlässliche Vorhersagen machen. Wer zu wenig Daten hat, baut zuerst die Datenbasis — das ist kein Misserfolg, sondern die richtige Reihenfolge.
-
Kein interner Ansprechpartner für Datenpflege und Modellpflege. Ein trainiertes Modell wird schlechter, wenn neue Schmelzdaten nicht eingespeist werden oder wenn die Constraint-Definitionen veralten. Wer niemanden hat, der das System pflegt, hat nach 12 Monaten ein Modell, das weniger wert ist als am Anfang.
-
Nur ein Glastyp und stabile Rohstoffpreise. Wenn du einen einzigen Glastyp produzierst, der seit Jahren stabil läuft und dessen Rohstoffpreise sich nicht wesentlich verändern, gibt es keinen Optimierungsdruck — und damit keinen Grund, diesen Aufwand zu betreiben. Der Anwendungsfall lohnt sich, wenn Optimierungsdruck dauerhaft vorhanden ist.
Das kannst du heute noch tun
Bevor du in ein ML-System investierst, mach einen einfachen Datenbasis-Check: Öffne dein Laborjournal oder deine Schmelzprotokolle der letzten drei Jahre und beantworte drei Fragen:
- Wie viele dokumentierte Schmelzversuche hast du in deiner häufigsten Glasfamilie — mit Rezeptur und gemessenen Eigenschaften (zumindest CTE und Viskosität)?
- Sind die Daten konsistent genug, um sie in eine Tabelle zu überführen — gleiche Messverfahren, gleiche Einheiten, keine Lücken bei den Kerneigenschaften?
- Gibt es eine Rezepturaufgabe, die du gerade schiebst, weil der Probeschmelzaufwand zu groß ist?
Wenn du bei Frage 1 mehr als 50 und bei Frage 3 ein konkretes Ja hast, ist ein Pilotprojekt sinnvoll. Als ersten Schritt kannst du das folgende Prompt-Template nutzen, um eine rudimentäre Voranalyse mit einem vorhandenen Datensatz durchzuführen — bevor du in eigentliche Entwicklung investierst.
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- Rohstoffpreisschwankungen Soda/Borax 2022: Industrieverband Glasfaser und Flachglas (IVGF), Marktbericht Rohstoffe 2022; Statistisches Bundesamt, Erzeugerpreisindex Chemische Grundstoffe (2022/2023). Prozentangaben basieren auf Jahresvergleichen der Indexwerte.
- Probeschmelzkosten und Entwicklungsaufwand: Eigene Schätzungen auf Basis von Praxisberichten aus der deutschen Spezialglas- und Technischen-Glas-Branche; VDG (Verein Deutscher Glasingenieure), Fachinformationen Glasentwicklung (allgemein). Kostenkorridore stark abhängig von Glastyp, Analytikaufwand und Laborausstattung — als Praxiskorridore, nicht als Garantiewerte zu verstehen.
- Bayesianische Optimierung für Materialentwicklung: Häse, F. et al., „Phoenics: A Bayesian Optimizer for Chemistry”, ACS Central Science (2018); Lookman, T. et al., „Active learning in materials science with emphasis on adaptive sampling using uncertainties for targeted design”, npj Computational Materials (2019). Methodische Grundlage für Surrogatmodell-Ansatz.
- SciGlass / GlassNet Datenbankgröße: SciGlass Information System (verfügbar über SciVerse/Elsevier); Rüssel, C., „SciGlass — eine umfassende Datenbasis für Glaseigenschaften”, Glastechnische Berichte (allgemein verfügbar).
- Rohstoffkostenstruktur Spezialglas: Fraunhofer ISI, Branchenanalyse Glas- und Keramikindustrie, Rohstoff- und Energieintensität (2022); eigene Kalkulationsbeispiele als konservative Schätzwerte auf Basis öffentlicher Branchendaten.
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Floatglas-Blasenerkennung: Mikrodefekte inline erkennen
Winzige Gasblasen im Floatglas-Band entstehen unvorhersehbar im Zinnbad und machen großformatige Architektur- und Solarscheiben unverkäuflich. KI-Bildverarbeitung erkennt Defekte in Echtzeit direkt am Band.
Mehr erfahrenBrennofen-Temperaturprofil: Keramikausschuss durch ML-Steuerung senken
Ungleichmäßige Hitzeverteilung in Tunnelöfen lässt Keramikfliesen verziehen oder reißen. ML-Modelle lernen das optimale Temperaturprofil je Produktmix und steuern Brennzonen automatisch nach.
Mehr erfahrenML-gestützte Brennprozess-Optimierung in der Keramikindustrie
Temperaturschwankungen im Tunnelofen erzeugen Ausschuss, den niemand vorhersagt. ML-Modelle lernen das optimale Temperaturprofil für jeden Produktmix — und reduzieren gleichzeitig Ausschuss und Energieverbrauch.
Mehr erfahren