Zum Inhalt springen
Glas & Keramik glasrezepturschmelzerohstoffoptimierung

Glasrezeptur-Optimierung: Rohstoffmix und Schmelzenergie KI-gestützt abstimmen

Glasrezepturen balancieren optische Eigenschaften, Schmelzpunkt und Rohstoffkosten — ein mehrdimensionales Optimierungsproblem. ML-Modelle finden bessere Rezeptur-Energie-Kompromisse als manuelle Iteration.

⚡ Auf einen Blick
Problem
Glasrezepteure kombinieren SiO₂, Na₂O, CaO, B₂O₃ und Zusatzstoffe nach Erfahrungswissen und teuren Probeschmelzen. Eine Rezepturoptimierung bei schwankenden Rohstoffpreisen (Soda +40% in 2022) erfordert Neuberechnungen, die Wochen dauern und mehrere Probeschmelzen kosten (5.000–15.000 € je Kampagne). Die Wechselwirkungen zwischen Rohstoffanteilen und resultierenden Eigenschaften sind hochkomplex.
KI-Lösung
ML-Surrogatmodell lernt den Zusammenhang zwischen Rezeptur (Oxide, Zusätze), Schmelztemperatur und Zielqualitäten (Viskositätskurve, Ausdehnungskoeffizient, UV-Transmission) aus historischen Schmelzdaten. Bayesianische Optimierung findet Rezepturkandidaten mit minimalem Energieeinsatz, die Spezifikation erfüllen.
Typischer Nutzen
Zahl der notwendigen Probeschmelzen um 40–60% reduzierbar. Rohstoffkostenoptimierung bei gleichbleibender Qualität 5–15% Einsparung. Rezepturwissen wird systematisch dokumentiert statt in Expertenkopf zu verbleiben.
Setup-Zeit
10–20 Monate bis Routinebetrieb — Datenbasis dominiert den Zeitplan
Kosteneinschätzung
50.000–150.000 € Einrichtung, 0 €/Monat Lizenzkosten (Open Source)
Optuna + GPyTorch (internes Python-Team)Ax-Bibliothek mit externem Data-ScientistCustom-Entwicklung mit scikit-learn / GPyTorch
Worum geht's?

Es ist Donnerstag, 14:32 Uhr.

Martina ist Glasrezepteurin in einem Spezialglas-Hersteller in Thüringen, der technische Gläser für Beleuchtung und Medizintechnik produziert. Auf ihrem Schreibtisch liegt die aktuelle Rohstoffpreisliste ihres Soda-Lieferanten: Natriumcarbonat hat sich gegenüber dem Vorjahr um 37 Prozent verteuert. Gleichzeitig besteht ein Großauftrag über UV-durchlässiges Borosilikat — ein Glas, dessen Rezeptur seit acht Jahren unverändert ist, weil jede Änderung Probeschmelzen erfordert, die das Unternehmen 8.000 bis 12.000 Euro je Kampagne kosten.

Martina weiß, dass die Rezeptur optimierbar wäre. Der B₂O₃-Anteil lässt sich mit billigendem SiO₂ partiell substituieren, ohne die Viskositätskurve zu verlassen — in der Theorie. Ob die neue Rezeptur die UV-Transmission in Spezifikation hält, wie sich der Ausdehnungskoeffizient verändert und wie das Gemenge schmilzt, weiß sie erst nach dem Versuch. Und der Versuch kostet, wie immer, zwei Wochen Vorlaufzeit und eine Probeschmelze.

Sie beginnt mit der Planung der ersten Versuchsreihe. Fünf Rezepturvarianten, drei Probeschmelzen minimum. Sechs Wochen bis zum ersten belastbaren Ergebnis — wenn nichts schiefgeht.

Während sie die Tabelle aufbaut, klingelt ihr Telefon. Der Einkaufsleiter: Ob sie wisse, dass der Soda-Lieferant die nächste Preiserhöhung für Oktober angekündigt hat. Weitere 22 Prozent.

Das echte Ausmaß des Problems

Glasrezepturen sind mehrdimensionale Optimierungsprobleme. Wer in einem Kalk-Natron-Glas den Na₂O-Anteil um einen Prozentpunkt senkt, um Soda zu sparen, verändert gleichzeitig Schmelzpunkt, Viskositätskurve, Ausdehnungskoeffizient und chemische Beständigkeit — nicht linear, nicht voneinander unabhängig. Für Spezialglasrezepturen mit fünf bis zehn Oxidkomponenten plus Läuterungsmitteln und Färbezusätzen liegt der Parameterraum bei Hunderten von Kombinationen, von denen die meisten die Spezifikation verfehlen.

Die traditionelle Antwort auf dieses Problem ist Erfahrungswissen und Probeschmelze. Ein Rezepteur mit 20 Jahren Praxis weiß, welche Substitutionen plausibel sind, und grenzt den Raum intuitiv ein. Eine Probeschmelze im Tiegelofen bestätigt oder widerlegt die Hypothese. Das funktioniert — aber es ist langsam und teuer.

Was Probeschmelzen kosten: Eine Laborschmelze im 1-kg-Tiegelofen kostet — inklusive Ofen-Energie, Rohmaterialien, Laborzeit und Analytik — typischerweise 2.000–5.000 € pro Kampagne (Schätzwert aus Praxisberichten; stark abhängig von Glastyp und Analytikaufwand). Eine Pilotschmelze im 50-bis-200-kg-Maßstab, die industrielle Bedingungen simuliert, kostet 8.000–20.000 € je Versuch. Wer eine neue Rezeptur mit fünf bis acht Varianten systematisch durchläuft, investiert leicht 40.000–100.000 € in Entwicklungskosten — bevor die erste Tonne Glas produziert wird.

Was Rohstoffpreisschwankungen auslösen: Sodaasche (Na₂CO₃) ist einer der Hauptrohstoffe in Kalk-Natron-Glas. In 2022 stiegen die Preise für Soda um bis zu 40 Prozent gegenüber dem Vorjahresdurchschnitt (Industrieverband Glasfaser und Flachglas, Marktbericht 2022). Borax und Borsäure — Schlüsselrohstoffe für Borosilikatglas — schwankten ähnlich. Ein Hersteller mit einem jährlichen Rohstoffeinkauf von 2 Millionen Euro spürt solche Preisbewegungen mit 400.000 bis 800.000 Euro direktem Mehraufwand — wenn die Rezeptur nicht angepasst wird.

Das Problem: Die Anpassung der Rezeptur kostet Monate und Tausende Euro. Also bleibt die Rezeptur wie sie ist, solange es irgendwie geht. Rohstoffpreis-Entwicklungen werden durch Marge aufgefangen statt durch Rezepturoptimierung. Das ist die strukturelle Trägheit, die ML-Methoden adressieren können.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlManuellMit ML-gestützter Optimierung
Probeschmelzen je Rezepturoptimierung5–15 Versuche2–6 Versuche (ML liefert priorisierte Kandidaten)
Iterationszyklen bis Spezifikation3–8 Monate1–3 Monate — bei bestehender Schmelzdatenbank
Reaktionszeit auf Rohstoffpreisänderungen6–18 Monate bis neue Rezeptur eingeführt2–6 Monate — wenn Modell bereits trainiert ist
Dokumentation von RezepturwissenIm Kopf des Experten oder in Excel-NotizenStrukturierte Datenbank, reproduzierbar, auditierbar
Rohstoffkosteneinsparung durch SubstitutionKaum systematisch möglich — zu aufwändig5–15 % auf Rohstoffkosten bei gleichbleibender Qualität (konservative Schätzung aus Praxisberichten)
EinstiegskostenLaborzeit + Probeschmelzkosten je Versuch50.000–150.000 € Projektaufwand + Datenbasisaufbau

Der Vergleich zeigt: Der Nutzen ist real, aber er setzt eine vorhandene Schmelzdatenbank mit belastbaren historischen Daten voraus. Ohne diese Datenbasis funktioniert das Modell nicht — dazu mehr in der Kostensektion.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Iterationszyklen werden spürbar kürzer — von typisch drei bis acht Monaten auf ein bis drei Monate, wenn das Modell eine belastbare Schmelzdatenbank zur Verfügung hat. Experimentelle Validation bleibt aber unverzichtbar: Kein Surrogatmodell ersetzt die Bestätigungsschmelze. Im Vergleich zu Inspektionssystemen, die Schichtstunden einsparen, oder Glasbruch-Analysetools, die Reklamationsklärungen von Wochen auf Tage verkürzen, ist der Zeitgewinn hier eher auf Monatsbasis zu messen — deshalb der mittlere Wert.

Kosteneinsparung — mittel (3/5) 5–15 % auf Rohstoffkosten klingt gering, ist es bei 2 Millionen Euro Jahreseinkauf aber nicht: Das sind 100.000–300.000 € theoretisch (konservative Schätzung aus Praxisberichten). Dazu kommt die Einsparung von Probeschmelzkosten: Wer pro Optimierungszyklus drei statt zehn Probeschmelzen braucht, spart 30.000–70.000 € je Entwicklungsprojekt. Das ist real, aber nicht auf dem Niveau der Ausschussreduzierungs-Anwendungsfälle dieser Branche, die monatlich sechsstellige Beträge bewegen können.

Schnelle Umsetzung — schwierig (2/5) 10 bis 20 Monate sind ein realistischer Korridor: Erst muss eine Schmelzdatenbank mit mindestens 100–200 dokumentierten Versuchen aufgebaut werden (sofern nicht bereits vorhanden), dann Modelltraining und Validierung, dann prozessuale Integration in den Entwicklungsablauf. Das ist eines der langwierigsten Projekte dieser Branche — Glasbruch-Ursachenanalyse oder Produktdokumentation sind in Wochen einsatzbereit, nicht Jahren.

ROI-Sicherheit — gering (2/5) Das Surrogatmodell muss erst ausreichend Daten sehen, bevor es verlässliche Vorschläge macht. In der Praxis heißt das: Die ersten 6–12 Monate nach Go-live liefert das Modell unsichere Kandidaten, die trotzdem experimentell validiert werden müssen. Der ROI-Nachweis dauert entsprechend lang — ein echter Unsicherheitsfaktor im Vergleich zu Ausschuss-Inspektionssystemen, bei denen die Einsparung ab der ersten Schicht messbar ist.

Skalierbarkeit — schwierig (2/5) Das ist die ehrlichste Einschränkung: Jede Glasfamilie (Kalk-Natron, Borosilikat, Aluminosilikat, Spezialglas) braucht ein eigenes Modell. Die Wechselwirkungen zwischen Oxiden sind so typspezifisch, dass ein für Kalk-Natron-Glas trainiertes Modell keine Aussagen für Borosilikat treffen kann. Das bedeutet: Pro Glasfamilie eine separate Datenbasis und ein separates Trainingsproject. Wer fünf Produktgruppen optimieren will, hat fünf Projekte vor sich — kein skalenfreier Ansatz.

Richtwerte — stark abhängig von Glastyp, Größe der vorhandenen Schmelzdatenbank und technischer Infrastruktur.

Was das System konkret macht

Ein ML-gestütztes Rezepturoptimierungssystem arbeitet in zwei Stufen:

Stufe 1: Surrogatmodell (Wissensmodell)

Das Surrogatmodell — typischerweise ein Gaussian Process oder ein neuronales Netz — lernt aus historischen Schmelzdaten den Zusammenhang zwischen Rezepturkomposition (Oxidanteile in Gewichtsprozent) und Zieleigenschaften. Zieleigenschaften sind je nach Glastyp:

  • Viskosität bei Verarbeitungstemperatur (η bei T_g, T_working, T_softening)
  • Thermischer Ausdehnungskoeffizient (CTE)
  • Chemische Beständigkeit (ISO 719, ISO 720)
  • Optische Transmission in relevanten Wellenlängenbereichen
  • Liquidustemperatur (Entglasungsrisiko)
  • Schmelztemperatur und -energie (Ofenlast)

Das Modell braucht mindestens 80–150 dokumentierte Schmelzversuche mit bekannter Rezeptur und gemessenen Eigenschaften, um belastbare Vorhersagen zu liefern. Wer bereits eine gut gepflegte Laborschmelzdatenbank hat, kann diese Hürde schnell überwinden. Wer von Null anfängt, muss sie systematisch aufbauen — das ist die zeitintensivste Phase.

Stufe 2: Bayesianische Optimierung (Suchstrategie)

Das Surrogatmodell allein sagt, welche Eigenschaften eine Rezeptur voraussichtlich hat. Es sagt nicht, welche Rezeptur die beste ist. Dafür kommt Bayesianische Optimierung zum Einsatz: ein Algorithmus, der den Rezepturraum intelligent durchsucht, indem er gezielt dort experimentiert, wo das Modell die größte Unsicherheit hat oder wo es den besten Kompromiss zwischen Zieleigenschaften erwartet.

In der Praxis bedeutet das: Das System schlägt pro Optimierungsrunde 3–8 Rezepturkandidaten vor — priorisiert nach erwartetem Outcome, nicht nach Zufallsprinzip. Der Rezepteur validiert die interessantesten Kandidaten experimentell und gibt die Ergebnisse zurück ins Modell. Das Modell wird besser mit jeder Schmelze. Nach 3–5 Runden ist die Konvergenz typischerweise deutlich besser als nach 15 Zufallsversuchen.

Was das System nicht kann

Das Modell optimiert innerhalb der Grenzen, die der Rezepturraum und die Physik setzen. Es kann keine Rezeptur vorschlagen, die außerhalb des bekannten Parameterraums liegt, ohne stark zu interpolieren — und in diesen Extrembereichen werden die Modellvorhersagen unsicherer. Wer wirklich neue Glastypen entwickeln will (nicht nur bestehende optimieren), braucht zusätzlich experimentelle Daten aus dem neuen Parameterbereich. Außerdem: Das Modell ersetzt nicht die Bestätigungsschmelze. Jeder vielversprechende Kandidat muss experimentell validiert werden — das ist kein Fehler des Systems, sondern ein Grundprinzip der Materialentwicklung.

Konkrete Werkzeuge — was wann passt

Ax (Facebook/Meta Research) — Open-Source-Bibliothek für Bayesianische Optimierung und adaptive Experimente, entwickelt von Meta AI Research. Ax ist speziell für den Fall gebaut, dass Experimente teuer sind (genau das ist bei Probeschmelzen der Fall): Die Bibliothek minimiert die Zahl der nötigen Versuche durch intelligente Kandidatenauswahl. Geeignet für Unternehmen mit einem internen Python-Entwickler oder Data-Scientist, die volle Kontrolle über Modellparameter und Datenpipeline wollen. Kostenlos, EU-konform wenn On-Premise betrieben. Kein UI — reine Programmierumgebung.

Optuna — Ebenfalls Open-Source-Optimierungs-Framework (präferiert in der Industrie für ML-Hyperparameter-Tuning, aber direkt auf Materialoptimierung anwendbar). Optuna hat eine intuitivere API als Ax und ist einfacher zu starten, wenn das Team schon Python-Kenntnisse hat. Die Visualisierungstools (Parallel-Coordinate-Plots, Importance-Analysis) helfen, die wichtigsten Rezepturparameter zu identifizieren. Empfehlenswert als erster Einstieg wenn bereits ein Python-Datenanalyse-Workflow besteht.

SciGlass / GlassNet (Corning/proprietär) — Kommerzielle Datenbanken mit hunderttausenden dokumentierten Glasrezepturen und Eigenschaften. SciGlass enthält mehr als 350.000 Gläser aus der Literatur und eignet sich hervorragend, um das eigene Surrogatmodell mit extern validierten Daten anzureichern — insbesondere wenn die interne Schmelzdatenbank zu klein für eine belastbare Modellierung ist. Kein KI-System im eigentlichen Sinne, aber ein kritischer Datenbeschleuniger in der Startup-Phase des Projekts.

Custom-Entwicklung mit Python + scikit-learn / GPyTorch — Wer höchste Flexibilität braucht und das nötige Data-Science-Know-how hat, baut das Surrogatmodell direkt. Gaussian Processes (GPyTorch) sind der bevorzugte Modelltyp für Schmelzdaten — sie quantifizieren Unsicherheit explizit, was bei kleinen Datensätzen (unter 200 Datenpunkten) wichtiger ist als reine Vorhersagegenauigkeit. Neuronale Netze werden erst bei mehr als 500 Datenpunkten besser. Diese Option ist die aufwändigste, bietet aber maximale Anpassbarkeit an proprietäre Glastypen und firmenspezifische Qualitätskriterien.

Zusammenfassung:

  • Einstieg mit kleiner Datenbasis, internes Team vorhanden → Optuna + GPyTorch
  • Datenbasis zu dünn für eigenes Modell → erst SciGlass-Lizenz für Anreicherung
  • Bayesianische Optimierung mit Produktionsfokus, kein eigenes Team → Ax mit externem Dienstleister
  • Volle Eigenentwicklung, proprietäres Glasportfolio → Custom Python/GPyTorch

Datenschutz und Datenhaltung

Glasrezepturen sind Betriebsgeheimnisse — das ist keine Übertreibung. Für Spezialglas-Hersteller sind proprietary Rezepturen oft das wichtigste Differenzierungsmerkmal gegenüber dem Wettbewerb. Das hat direkte Konsequenzen für die Systemarchitektur:

  • On-Premise oder Private Cloud. Alle Lösungen — ob Ax, Optuna oder ein Custom-Modell — können vollständig lokal betrieben werden. Das ist die Standardempfehlung: Kein Rezepturansatz verlässt das interne Netz.
  • Keine Cloud-KI-Dienste für Rezepturdaten. ChatGPT, Gemini und andere Large Language Models sind für diesen Anwendungsfall nicht geeignet — nicht wegen technischer Limitationen, sondern wegen des Datenrisikos. Wer Rezepturdaten an externe Dienste schickt, muss sicherstellen, dass kein Training auf diesen Daten stattfindet. Das lässt sich bei SaaS-Diensten kaum vollständig ausschließen.
  • DSGVO: Rezepturdaten enthalten keine personenbezogenen Daten im DSGVO-Sinne. Trotzdem sollte bei jedem externen Dienstleister ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO geschlossen werden — schon aus vertraglicher Sorgfaltspflicht.
  • Zugriffssteuerung: Die Schmelzdatenbank muss gegen unbefugten Zugriff gesichert sein. Wer die historischen Schmelzdaten hat, hat im Wesentlichen die Rezepturhistorie des Unternehmens.

Was es kostet — realistisch gerechnet

Projektaufwand für Aufbau und Modell:

PhaseAufwandKosten
Schmelzdatenbank strukturieren und befüllen2–6 Monate interner AufwandInterne Laborzeit: 15.000–40.000 €
Surrogatmodell bauen und validieren2–4 Monate (externer Data Scientist oder intern)20.000–50.000 € (Dienstleister) oder 3–5 Monate interner Aufwand
Bayesianische Optimierung integrieren1–2 MonateIm vorigen Schritt enthalten oder 5.000–10.000 € zusätzlich
Validierungsschmelzen für Modell-FeedbackLaufend während Aufbau4–6 Probeschmelzen × 3.000–8.000 € = 12.000–48.000 €
Gesamt Aufbauphase10–20 Monate50.000–150.000 € einmalig

Laufende Kosten:

  • Interne Pflege und Modellaktualisierung: 0,1–0,2 FTE pro Glasfamilie
  • Software: Ax, Optuna, scikit-learn — alles Open Source, keine Lizenzkosten
  • Server/Infrastruktur: minimal (läuft auf einer normalen Workstation)

Was du gegenzurechnen kannst:

Konservatives Rechenbeispiel: Rohstoffeinkauf 2.000.000 €/Jahr, Einsparpotenzial durch Rezepturoptimierung 8 % (unteres Ende des Praxiskorridors 5–15 %, konservative Schätzung):

2.000.000 € × 8 % = 160.000 € Einsparung jährlich

Dazu: Probeschmelzen-Einsparung. Ohne System 10 Probeschmelzen je Optimierungszyklus à 8.000 € = 80.000 €. Mit System 4 Probeschmelzen à 8.000 € = 32.000 €. Differenz je Zyklus: 48.000 €. Bei zwei Optimierungszyklen pro Jahr: 96.000 € gespart.

Kombiniert: ca. 256.000 € jährlich — bei einem Aufbauaufwand von 100.000 € ergibt das eine theoretische Amortisationszeit von unter einem Jahr, sobald das Modell läuft. Vorsicht: Diese Rechnung setzt voraus, dass das Surrogatmodell valide Vorschläge macht und die Rohstoffsubstitution ohne Qualitätsverlust realisierbar ist. Beide Bedingungen sind in der Praxis nicht garantiert — der echte ROI zeigt sich frühestens nach 12–18 Monaten Betrieb.

Drei typische Einstiegsfehler

1. Mit Modellbau beginnen, bevor die Datenbasis steht. Das ist der häufigste Fehler und der teuerste. Ein Gaussian-Process-Modell, das auf 30 Datenpunkten trainiert ist, hat hohe Unsicherheit und liefert Vorschläge, die in mehr als der Hälfte der Fälle experimentell nicht funktionieren. Das frustriert das Team und diskreditiert den gesamten Ansatz — obwohl das Werkzeug stimmt und nur die Basis fehlt. Lösung: Phase 1 ist immer Datenbasis. Das Ziel für das erste Jahr ist Daten sammeln und strukturieren — nicht modellieren. 80 gut dokumentierte Versuche mit konsistenter Analytik sind mehr wert als 200 schlecht dokumentierte.

2. Nur Rohstoffkosten als Optimierungsziel setzen. Wer das Modell ausschließlich auf Kostensenkung optimiert, erhält Rezepturen, die zwar billig, aber schwieriger zu schmelzen sind: höhere Schmelztemperaturen, mehr Energieeinsatz, erhöhtes Entglasungsrisiko. Die Einsparung bei Rohstoffen wird durch höhere Energiekosten und mehr Ausschuss teilweise aufgefressen. Lösung: Multikriterielle Optimierung von Anfang an — Rohstoffkosten, Schmelzenergie, Prozessfensterbreite und Qualitätseigenschaften müssen gleichzeitig als Zielfunktion definiert werden. Das ist technisch anspruchsvoller, aber die einzig belastbare Grundlage.

3. Das Erfahrungswissen des Rezepteurs nicht ins Modell einbeziehen. ML-Modelle sind gut darin, Muster in Daten zu finden. Sie sind schlecht darin, physikalisch unmögliche Bereiche des Parameterraums zu ignorieren. Ein erfahrener Rezepteur weiß: Unter einem bestimmten SiO₂-Anteil wird das Glas entglasen. Über einem bestimmten B₂O₃-Anteil steigen die Rohstoffkosten überproportional. Diese Constraints gehören explizit ins Modell — als harte Grenzen, nicht als weiche Präferenzen. Wer das versäumt, erhält Vorschläge, die das Modell für gut hält, die aber kein erfahrener Rezepteur je probieren würde.

Was mit der Einführung wirklich passiert — und was nicht

Der Anwendungsfall scheitert selten am Algorithmus. Er scheitert an der Datenbasis und am Vertrauen in Modellvorschläge.

Das typische Muster: Das erste Modell wird aufgebaut, liefert Vorschläge, die experimentell getestet werden — und zwei von drei Kandidaten funktionieren nicht. Die Schlussfolgerung des Entwicklungsteams: “Das Modell taugt nichts.” Die eigentliche Ursache: Das Modell hatte erst 60 Datenpunkte und war in den getesteten Bereichen des Parameterraums nicht hinreichend abgedeckt. Nach weiteren 30 dokumentierten Schmelzen würde es deutlich besser werden — aber das Team hat aufgehört, es zu verwenden.

Das zweite Muster: Der erfahrene Rezepteur vertraut dem Modell grundsätzlich nicht. Er hat zwanzig Jahre Erfahrung und hat schon gesehen, wie “Computersysteme” in der Vergangenheit schlechte Empfehlungen gemacht haben. Er nutzt das System nicht — oder testet nur Kandidaten, die er sowieso getestet hätte. Das Modell lernt nicht weiter, weil keine neuen Daten hineingegeben werden.

Beide Muster lassen sich vermeiden, wenn von Anfang an klar kommuniziert wird: Das Modell ist ein Entscheidungsassistent, kein Entscheidungsautomator. Es priorisiert Kandidaten, die es für vielversprechend hält — aber der Rezepteur entscheidet, welche davon getestet werden. Die Ergebnisse fließen zurück ins Modell, ob positiv oder negativ. Das Vertrauen entsteht über Monate, nicht über Nacht.

Reziepteur-Einbindung von Tag eins: Der erfahrene Rezepteur sollte den Constraint-Raum definieren (welche Oxidanteile sind physikalisch sinnvoll?), die Analytik-Protokolle festlegen und die ersten Kandidaten auswählen. Das ist keine Alibi-Beteiligung — das sind unverzichtbare Beiträge, die das Modell besser machen.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datenbasis-AuditMonat 1–2Vorhandene Schmelzdaten sichten, Qualität bewerten, Lücken identifizierenDaten sind in Papierform oder inkonsistent dokumentiert — Digitalisierung dauert länger als geplant
Datenbasis aufbauen / ergänzenMonat 2–8Strukturierte Dokumentation neuer Schmelzversuche, SciGlass-Recherche für externe Referenzdaten80 valide Datenpunkte brauchen mehr Zeit als erwartet — besonders wenn Analytik (Ausdehnungskoeffizient, Viskositätsmessung) nicht im eigenen Labor vorhanden ist
Surrogatmodell-AufbauMonat 8–12Modell trainieren, Vorhersagequalität validieren (Leave-one-out-Cross-Validation), Unsicherheitsquantifizierung prüfenModell hat schlechte Vorhersagequalität in wichtigen Qualitätsdimensionen — mehr Daten oder andere Modellarchitektur nötig
Erste OptimierungsrundeMonat 12–15Bayesianische Optimierung für eine konkrete Rezepturaufgabe, Kandidaten experimentell validierenValidierungsschmelzen bestätigen Modellvorhersagen nicht — erfordert Fehleranalyse und Nachbesserung der Datenbasis
RoutinebetriebAb Monat 15–20System wird in den regulären Entwicklungsablauf integriert, Modell wächst mit jeder neuen SchmelzePersonalwechsel — wer das Modell pflegt und die Datenbasis weiterentwickelt, muss klar definiert sein

Häufige Einwände — und was dahintersteckt

„Unsere Glasrezepturen sind zu komplex für ein Modell.” Das klingt plausibel, ist es aber nur begrenzt. Surrogatmodelle müssen die Physik des Glases nicht verstehen — sie müssen nur lernen, welche Rezepturen in der Praxis welche Eigenschaften ergeben. Das ist eine statistische Aufgabe, keine physikalische Simulation. Wo die Physik wirklich zu komplex ist (vollständig neue Glastypen jenseits des bekannten Parameterraums), ist das Modell tatsächlich schwächer. Für Optimierungen innerhalb einer bekannten Glasfamilie — das ist der Normalfall — ist das Argument nicht stichhaltig.

„Wir haben keine ausreichende Datenbasis.” Das ist oft der ehrlichste Einwand und verdient eine ehrliche Antwort: Wenn weniger als 50 gut dokumentierte Schmelzversuche vorliegen, sollte noch kein Optimierungsmodell gebaut werden. Aber: Die Lösung ist nicht “wir machen das nicht”, sondern “wir fangen mit dem Datenbasisaufbau an”. Jede neue Schmelze wird von jetzt an strukturiert dokumentiert — nach spätestens zwei bis drei Jahren hat man genug Material. SciGlass-Daten können die eigene Basis ergänzen.

„Ein externer Dienstleister würde unsere Rezepturen kennen.” Das ist ein legitimes Risiko — aber kein K.o.-Kriterium. Die Open-Source-Tools (Ax, Optuna, scikit-learn) können vollständig intern von einem eigenen Data Scientist betrieben werden, ohne dass externe Parteien Zugriff auf die Rohdaten brauchen. Wer intern kein Know-how hat, kann einen Dienstleister unter NDA und mit Data-Processing-Agreement engagieren, der die Implementierung macht, ohne die Rezepturdetails zu sehen — das erfordert aber sorgfältige Vertragsgestaltung.

Woran du merkst, dass das zu dir passt

  • Du optimierst Rezepturen regelmäßig — mindestens zwei bis drei Mal pro Jahr aufgrund von Rohstoffpreisschwankungen, Kundenvorgaben oder Produktentwicklung
  • Du hast oder kannst aufbauen: mindestens 80 dokumentierte Schmelzversuche in einer konsistenten Glasfamilie mit gemessenen Zieleigenschaften
  • Deine Probeschmelzkosten liegen bei über 5.000 € je Kampagne — darunter ist der Aufwand für ein ML-System wahrscheinlich nicht zu rechtfertigen
  • Du hast Zugang zu einem Data Scientist — intern oder extern — der Python beherrscht und bereit ist, in das Thema Materialoptimierung einzuarbeiten
  • Deine Rohstoffkosten sind ein relevanter Kostenblock — unter 500.000 € Jahreseinkauf ist das Optimierungspotenzial in absoluten Zahlen zu klein für den Projektaufwand

Wann es (noch) nicht passt — drei harte Ausschlusskriterien:

  1. Schmelzdatenbank unter 50 validen Datenpunkten für die Zielglasgruppe. Kein Modell kann aus weniger Daten verlässliche Vorhersagen machen. Wer zu wenig Daten hat, baut zuerst die Datenbasis — das ist kein Misserfolg, sondern die richtige Reihenfolge.

  2. Kein interner Ansprechpartner für Datenpflege und Modellpflege. Ein trainiertes Modell wird schlechter, wenn neue Schmelzdaten nicht eingespeist werden oder wenn die Constraint-Definitionen veralten. Wer niemanden hat, der das System pflegt, hat nach 12 Monaten ein Modell, das weniger wert ist als am Anfang.

  3. Nur ein Glastyp und stabile Rohstoffpreise. Wenn du einen einzigen Glastyp produzierst, der seit Jahren stabil läuft und dessen Rohstoffpreise sich nicht wesentlich verändern, gibt es keinen Optimierungsdruck — und damit keinen Grund, diesen Aufwand zu betreiben. Der Anwendungsfall lohnt sich, wenn Optimierungsdruck dauerhaft vorhanden ist.

Das kannst du heute noch tun

Bevor du in ein ML-System investierst, mach einen einfachen Datenbasis-Check: Öffne dein Laborjournal oder deine Schmelzprotokolle der letzten drei Jahre und beantworte drei Fragen:

  1. Wie viele dokumentierte Schmelzversuche hast du in deiner häufigsten Glasfamilie — mit Rezeptur und gemessenen Eigenschaften (zumindest CTE und Viskosität)?
  2. Sind die Daten konsistent genug, um sie in eine Tabelle zu überführen — gleiche Messverfahren, gleiche Einheiten, keine Lücken bei den Kerneigenschaften?
  3. Gibt es eine Rezepturaufgabe, die du gerade schiebst, weil der Probeschmelzaufwand zu groß ist?

Wenn du bei Frage 1 mehr als 50 und bei Frage 3 ein konkretes Ja hast, ist ein Pilotprojekt sinnvoll. Als ersten Schritt kannst du das folgende Prompt-Template nutzen, um eine rudimentäre Voranalyse mit einem vorhandenen Datensatz durchzuführen — bevor du in eigentliche Entwicklung investierst.

Prompt: Erste Rezepturtrend-Analyse aus Schmelzdaten
Du bist ein Materialwissenschafts-Assistent spezialisiert auf Glasrezeptur-Analyse. Ich gebe dir eine Tabelle mit historischen Schmelzdaten einer Glasfamilie. Jede Zeile enthält die Zusammensetzung (Oxide in Gewichtsprozent) und gemessene Eigenschaften. Deine Aufgaben: 1. Identifiziere die drei Oxide mit dem stärksten Einfluss auf den thermischen Ausdehnungskoeffizient (CTE) in diesem Datensatz. 2. Zeige an zwei konkreten Beispielrezepturen aus den Daten, wie sich der CTE verändert wenn der Na₂O-Anteil um 1 Gewichtsprozent steigt (unter sonst gleichen Bedingungen, wenn annähernd vorhanden). 3. Markiere Rezepturen, bei denen der SiO₂-Anteil unter 65 % liegt — diese sind potenziell anfälliger für Entglasungsrisiken. 4. Schätze: Bei welchem Oxidbereich liegt in diesem Datensatz das günstigste Preis-Eigenschafts-Verhältnis, wenn Na₂O teuer ist und durch SiO₂ oder CaO substituiert werden soll? SCHMELZDATEN: [HIER TABELLE EINFÜGEN — z.B.: Versuch | SiO₂ | Na₂O | CaO | Al₂O₃ | MgO | CTE (10⁻⁷/K) | Viskosität bei 1300°C (dPas) | Bemerkung V001 | 72.1 | 13.2 | 9.4 | 1.8 | 3.5 | 89 | 145 | Standard V002 | 71.5 | 14.1 | 9.2 | 1.7 | 3.5 | 93 | 128 | Soda erhöht] Wichtig: Gib keine Empfehlung ab, eine Rezeptur ohne experimentelle Validation einzuführen. Alle Musteraussagen sind Trendanalysen, keine Garantien.
Funktioniert mit ChatGPT, Claude, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Versuch | SiO₂ | Na₂O | CaO | Al₂O₃ | CTE (10⁻⁷/K) V001 | 72.1 | 13.2 | 9.4 | 1.8 | 89 V002 | 71.5 | 14.1 | 9.2 | 1.7 | 93 V003 | 73.0 | 12.5 | 9.8 | 1.9 | 86 V004 | 70.8 | 15.0 | 8.9 | 1.6 | 97 V005 | 72.8 | 12.9 | 9.6 | 1.8 | 88

KI-Assistent

**Rezepturtrend-Analyse — Ergebnisübersicht** **1. Einflussreichste Oxide auf den CTE in diesem Datensatz:** Na₂O hat den stärksten positiven Einfluss: Der CTE steigt im Datensatz konsistent mit zunehmendem Na₂O-Anteil. SiO₂ zeigt einen negativen Zusammenhang (mehr SiO₂ → niedrigerer CTE). CaO zeigt im vorliegenden Bereich (8,9–9,8 %) keinen eindeutigen Trend. **2. Effekt von Na₂O +1 Gew.%:** Vergleich V001 (Na₂O 13,2 %, CTE 89) → V002 (Na₂O 14,1 %, CTE 93): +0,9 % Na₂O → +4 Einheiten CTE. Vergleich V003 (Na₂O 12,5 %, CTE 86) → V001 (Na₂O 13,2 %, CTE 89): +0,7 % Na₂O → +3 Einheiten CTE. Tendenz: ca. +4–5 Einheiten CTE je 1 % Na₂O-Erhöhung in diesem Bereich. **3. Entglasungsrisiko:** Keine Rezeptur im Datensatz liegt unter 65 % SiO₂ — alle Rezepturen sind in dieser Hinsicht unkritisch. **4. Preis-Eigenschafts-Analyse (Na₂O teuer):** V003 (SiO₂ 73,0 %, Na₂O 12,5 %, CTE 86) zeigt den niedrigsten Na₂O-Anteil mit moderatem CTE. Wenn die Zielspezifikation einen CTE von 88–92 erlaubt, wäre eine Substitution von ~0,5 % Na₂O durch äquivalente SiO₂/CaO-Erhöhung ein plausibler erster Kandidat für einen Probeschmelzversuch. *Hinweis: Dieser Trend basiert auf 5 Datenpunkten — statistisch nicht belastbar. Jede Ableitung erfordert experimentelle Bestätigung. Verwende diese Analyse nur als Hypothesen-Generator, nicht als Produktionsgrundlage.*

Quellen & Methodik

  • Rohstoffpreisschwankungen Soda/Borax 2022: Industrieverband Glasfaser und Flachglas (IVGF), Marktbericht Rohstoffe 2022; Statistisches Bundesamt, Erzeugerpreisindex Chemische Grundstoffe (2022/2023). Prozentangaben basieren auf Jahresvergleichen der Indexwerte.
  • Probeschmelzkosten und Entwicklungsaufwand: Eigene Schätzungen auf Basis von Praxisberichten aus der deutschen Spezialglas- und Technischen-Glas-Branche; VDG (Verein Deutscher Glasingenieure), Fachinformationen Glasentwicklung (allgemein). Kostenkorridore stark abhängig von Glastyp, Analytikaufwand und Laborausstattung — als Praxiskorridore, nicht als Garantiewerte zu verstehen.
  • Bayesianische Optimierung für Materialentwicklung: Häse, F. et al., „Phoenics: A Bayesian Optimizer for Chemistry”, ACS Central Science (2018); Lookman, T. et al., „Active learning in materials science with emphasis on adaptive sampling using uncertainties for targeted design”, npj Computational Materials (2019). Methodische Grundlage für Surrogatmodell-Ansatz.
  • SciGlass / GlassNet Datenbankgröße: SciGlass Information System (verfügbar über SciVerse/Elsevier); Rüssel, C., „SciGlass — eine umfassende Datenbasis für Glaseigenschaften”, Glastechnische Berichte (allgemein verfügbar).
  • Rohstoffkostenstruktur Spezialglas: Fraunhofer ISI, Branchenanalyse Glas- und Keramikindustrie, Rohstoff- und Energieintensität (2022); eigene Kalkulationsbeispiele als konservative Schätzwerte auf Basis öffentlicher Branchendaten.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar