Zum Inhalt springen
Chemie molekueldesigngenerative-kiforschung-entwicklung

Neue Moleküle und Formulierungen mit generativer KI entwickeln

Generative KI-Modelle schlagen auf Basis von Zielstoffprofilen neue Molekülstrukturen und Formulierungsansätze vor — und beschleunigen das Screening von Kandidaten im frühen F&E-Stadium.

Worum geht's?

Es ist April 2019. Petrina Kan ist Computational Chemist bei Insilico Medicine.

Das Team hat gerade beschlossen, einen idiopathischen Lungenfibrosen-Wirkstoff von Grund auf neu zu entwickeln — nicht durch die Optimierung eines bekannten Kandidaten, sondern durch das Erstellen einer vollständig neuen Zielstruktur. Ihr generatives KI-System, das auf dem Chemistry42-Plattform läuft, schlägt innerhalb von 21 Tagen 30.000 Kandidatenmoleküle vor. Davon synthesieren sie sechs. Einer davon kommt in die klinischen Studien.

Im Juni 2025 meldet das Unternehmen positive Phase-IIa-Ergebnisse für ISM001-055 — vom ersten KI-generierten Targetvorschlag bis zu klinisch validierten Ergebnissen: knapp sechs Jahre. Ein Prozess, der ohne KI-Unterstützung typischerweise 12–15 Jahre dauert und mit einer Ausfallrate von über 90 % in der Frühphase verbunden ist.

Das ist der unbestreitbare Beweis, dass generative KI im Moleküldesign echten Wert schafft. Es ist gleichzeitig ein Unternehmen mit 300+ Mitarbeitenden, einem spezialisierten KI-Team, exklusivem Datenzugang und einem Jahrzehnt Erfahrung in Computational Chemistry. Das ist kein Modell, das sich ein mittelständischer Spezialchemiker nächstes Quartal einführt.

Die Frage ist nicht: Funktioniert das? Die Frage ist: Für wen, unter welchen Bedingungen — und was bricht dabei?

Das echte Ausmaß des Problems

Chemieinnovation ist ein kombinatorisches Problem. Der chemische Raum — alle prinzipiell möglichen kleinen organischen Moleküle bis zu einer Masse von 500 Dalton — umfasst schätzungsweise 10 hoch 60 Verbindungen. Die gesamte publizierte chemische Literatur hat bislang Eigenschaften für wenige Millionen davon bestimmt. Ein Laborchemiker kann in einem guten Jahr 50–200 neue Verbindungen synthetisieren und testen. Die Mismatch zwischen dem, was theoretisch durchsuchbar wäre, und dem, was manuell erreichbar ist, ist astronomisch.

In der Praxis der Industriechemie heißt das: Early-Stage-Screening ist teuer, langsam und oft in lokalen Optima gefangen. Wer nur die Verbindungen testet, die ein erfahrener Chemiker für vielversprechend hält, testet einen winzigen Bruchteil des möglichen Raums — und übersieht möglicherweise bessere Kandidaten in anderen Strukturklassen.

Das Potenzial generativer KI liegt genau hier: neue Strukturräume vorschlagen, die menschliche Intuition nicht in Betracht zieht, und dabei auf Ziel-Eigenschaftsprofile hin optimieren — statt auf Ähnlichkeit zu bekannten Verbindungen.

Was die Zahlen zeigen:

  • Insilico Medicine identifizierte den ersten klinischen Kandidaten in 18 Monaten von Target-Identifikation bis Präklinik — typischerweise dauert das 4–6 Jahre (Insilico Medicine, 2021)
  • Schrödinger-Studien zeigen: FEP+-gestützte Optimierungen verbessern die Hit-Rate in der Lead-Optimization-Phase von ca. 15 % auf 35–45 % — bei deutlich weniger synthetisierten Verbindungen (Schrödinger interne Daten, veröffentlicht in J. Med. Chem.)
  • Rechenzeit für das Screening von 50.000 Kandidaten: Stunden bis Tage (Computational), gegenüber Monate bis Jahre (Laborsynthese)

Aber diese Zahlen gelten für gut ausgestattete Teams mit der richtigen Infrastruktur. Was in der Top-Pharma funktioniert, ist nicht direkt übertragbar.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlTraditionelles experimentelles ScreeningKI-gestütztes Moleküldesign
Kandidaten je Designzyklus bewertet50–200 (Labor)5.000–100.000 (Computational)
Zeit bis zur Kandidatenliste6–18 Monate1–4 Monate ¹
Synthesierbarkeit als FilterIntuition des ChemikersAutomatisch bewertbar (SA-Score)
Anforderungen an TeamErfahrene SynthesechemikerZusätzlich: Computational Chemists, ML-Ingenieure
EinstiegskostenLaborausstattung, ChemikalienLizenzen + Expertise, typisch 100.000–500.000 €/Jahr
Übertragbarkeit auf neue SubstanzklassenHoch (Chemiker denken generalistisch)Niedrig ohne Retraining (domänespezifische Modelle)

¹ Nur für die computationale Kandidatenpriorisierung — nicht für die anschließende Labor-Validierung, die weiterhin Monate dauert.

Die ehrliche Aussage: KI beschleunigt einen frühen Teilabschnitt eines sehr langen Prozesses erheblich. Die nachgelagerten Schritte — Synthese, Analytik, in-vitro-Tests, in-vivo-Tests, klinische Prüfung — bleiben unverändert zeitaufwändig.

Einschätzung auf einen Blick

Zeitersparnis — begrenzt (2/5) Die Zeitersparnis betrifft ausschließlich die frühe Screening-Phase — und selbst dort: Die Laborvalidierung der vom KI vorgeschlagenen Kandidaten dauert weiterhin Monate. Der Gesamtentwicklungszeitraum für ein Produkt wird nicht halbiert, sondern in einem Teilabschnitt beschleunigt. Im Vergleich zu anderen Chemie-Anwendungsfällen wie der Batch-Protokoll-Auswertung oder dem SDB-Generator ist der direkte Alltagseffekt für das Team deutlich indirekter und verzögerter.

Kosteneinsparung — mittel (3/5) Weniger Laborversuche in der Frühphase bedeutet konkret weniger Chemikalienkosten, weniger Analytikapparatezeit, weniger Personalzeit für Failed Experiments. Bei großen Pharmaprogrammen kann das signifikant sein. Für Spezialchemiker mit kleineren Programmen: Der Effekt hängt stark davon ab, wie viele parallele Synthesezyklen laufen.

Schnelle Umsetzung — sehr niedrig (1/5) Das ist der schwächste Punkt dieses Anwendungsfalls — und er verdient Ehrlichkeit. Ein validiertes generatives KI-Modell für eine spezifische Substanzklasse braucht: qualitativ hochwertige Trainingsdaten (mindestens mehrere tausend Datenpunkte mit gemessenen Eigenschaften), ein Computational-Chemistry-Team für das Training und die Interpretation, und 12–24 Monate Zeit bis zum ersten belastbaren Ergebnis. Wer in 3 Monaten einen Vorteil sehen will, ist hier falsch.

ROI-Sicherheit — niedrig (2/5) Der ROI ist stark substanzklassen- und datenbasisabhängig. Ein Modell, das auf gut untersuchten Kinase-Inhibitoren trainiert wurde, funktioniert nicht direkt auf Polymersystemen oder anorganischen Pigmenten. Der wissenschaftliche Beweis für KI-gestütztes Moleküldesign ist stark — aber er gilt für gut ausgestattete Teams in bekannten chemischen Domänen. Für neue Substanzklassen mit wenig Trainingsdaten sind die Ergebnisse deutlich unsicherer.

Skalierbarkeit — hoch (4/5) Hat ein Team einmal ein trainiertes Modell für eine Substanzklasse, kann es damit parallel viele Designvarianten bewerten — ohne proportional mehr Labor-Kapazität zu brauchen. Das Modell lässt sich mit neuen Daten verfeinern. Auf neue Substanzklassen übertragbar, aber nur mit zusätzlichem Training und entsprechenden Daten.

Richtwerte — stark abhängig von F&E-Budgetgröße, bestehender Computational-Chemistry-Infrastruktur und Verfügbarkeit proprietärer Trainingsdaten.

Was das System konkret macht

Generative KI für das Moleküldesign arbeitet typischerweise mit einer von zwei Architekturen:

SMILES-Transformer-Modelle behandeln Moleküle wie Sprache. SMILES (Simplified Molecular Input Line Entry System) ist eine textbasierte Darstellung chemischer Strukturen — CCO ist Ethanol, c1ccccc1 ist Benzol. Ein auf Millionen bekannter SMILES trainierter Transformer kann neue, chemisch valide Strukturen vorschlagen, die ein gewünschtes Eigenschaftsprofil optimieren. Das Prinzip ist dasselbe wie bei einem Sprachmodell — nur dass die “Sprache” Chemie ist.

Molecular Variational Autoencoders (VAE) kodieren Moleküle in einen kontinuierlichen Raum, in dem ähnliche Moleküle in der Nähe voneinander liegen. In diesem Raum lassen sich Strukturen “interpolieren” und entlang von Eigenschaftsgradients bewegen: “Zeige mir Moleküle zwischen A und B, aber mit höherer Wasserlöslichkeit.”

Beide Ansätze brauchen als Input:

  1. Ein klares Eigenschaftsprofil (target properties): Gewünschte Löslichkeit, Aktivität gegen ein bestimmtes Enzym, Toxizitätsobergrenze, Synthesierbarkeit
  2. Trainingsdaten: Historische Verbindungen mit gemessenen Eigenschaften — je mehr und je qualitativ hochwertiger, desto besser das Modell
  3. Validation-Filter: Synthesierbarkeit-Score (SA-Score), Lipinski-Regeln, toxikologische Grundfilter — um unrealistische oder gefährliche Kandidaten früh auszusortieren

Das Ergebnis ist eine priorisierte Kandidatenliste — nicht ein einzelner “richtiger” Kandidat, sondern typischerweise 20–200 Verbindungen, die das Eigenschaftsprofil nach Modellvorhersage am besten erfüllen. Welche davon tatsächlich synthetisiert werden, entscheidet der erfahrene Chemiker — mit deutlich mehr Information als zuvor.

Was das System nicht kann

Es validiert nicht. Das Modell kann nur vorhersagen, was aufgrund der Trainingsdaten wahrscheinlich ist — und Trainingsdaten sind nie vollständig. Jede Vorhersage muss im Labor bestätigt werden. Das vergessen insbesondere Tech-getriebene Teams gelegentlich: Ein hohes In-silico-Score bedeutet keinen funktionierenden Wirkstoff.

Außerdem: Das Modell lernt aus bekannten Chemie. Echter Innovationssprung — eine strukturell völlig neue Substanzklasse — ist schwieriger, weil die Trainingsdaten dort spärlicher sind.

Risikohinweise und Haftung

Generative KI im Moleküldesign operiert in einer regulatorisch anspruchsvollen Umgebung:

Patentrecht: KI-generierte Strukturen können nur dann patentiert werden, wenn ein Mensch als Erfinder benannt wird und substantieller intellektueller Beitrag vorliegt. Die Rechtslage ist in Europa nach G 0006/22 (EPO, 2023) klar: KI-Systeme können keine Erfinder sein. Was die KI vorschlägt, ist der Ausgangspunkt — die menschliche Entscheidung, welcher Kandidat verfolgt wird und warum, ist die Erfinderleistung.

Regulatorische Dossiers: In der Pharmaindustrie müssen alle Trainingsdaten und Modellentscheidungen für regulatorische Einreichungen (EMA, FDA) dokumentierbar sein. Black-Box-Modelle ohne nachvollziehbare Begründung für Kandidatenselektion sind im klinischen Entwicklungskontext ein Problem.

Toxikologische Verantwortung: Ein generatives Modell, das toxische Strukturen vorschlägt, die im Labor dann tatsächlich toxic sind — die Haftung liegt beim Anwender. KI-Vorhersagen sind keine Garantien. Der Computational Chemist und sein Team tragen die fachliche Verantwortung für die Syntheseentscheidungen.

Konkrete Werkzeuge — was wann passt

Schrödinger — Industriestandard für physikbasiertes Moleküldesign mit ML-Erweiterungen. Stärken: FEP+-Methode für präzise Bindungsaffinitätsvorhersagen, breite Substanzklassenabdeckung, etabliert in der pharmazeutischen Industrie. Einschränkungen: Sehr hohe Lizenzkosten (ab ca. 50.000 USD/Jahr für Basismodule), erfordert ausgebildete Computational Chemists. Empfohlen für: Pharmaunternehmen ab mittlerer Größe mit eigenem Comp-Chem-Team.

Insilico Medicine — Chemistry42 — Auf generative KI für De-novo-Design spezialisiert. Chemistry42 ist das System hinter dem ersten klinisch validierten KI-generierten Wirkstoffkandidaten. Über 20 Pharmaunternehmen nutzen die Plattform für externe Programme. Preise auf Anfrage, Enterprise-Fokus. Geeignet für F&E-Programme mit klar definiertem Target und verfügbarem assay-Datenpool.

Azure Machine Learning — Für Teams, die eigene Modelle auf eigenen Daten trainieren wollen, ohne teure kommerzielle Lizenzen. Azure ML bietet GPU-Computing, MLflow-Integration und EU-Datenhaltung. Erfordert interne ML-Expertise. Geeignet als Infrastruktur für Teams, die Schrödinger oder Chemistry42-ähnliche Workflows selbst bauen wollen — was realistisch 12–18 Monate Entwicklungsarbeit und einen ML-Ingenieur bedeutet.

Chemify, BioLeaf, Entos — Neuere, fokussiertere Plattformen mit speziellen Stärken (Syntheseplanung, biologische Aktivität, Materialwissenschaften). Junge Unternehmen mit begrenztem Track-Record gegenüber Schrödinger. Für spezifische Anwendungsfälle evaluieren, nicht als erste Wahl für kritische Programme.

OpenSMILES-Tools und Open-Source-Frameworks (RDKit, DeepChem, OpenBabel) — Für akademisch geprägte Teams oder erste Experimente. Kostenlos, flexibel, aber ohne die kommerzielle Datenbankqualität und den Support der etablierten Plattformen. Für Proof-of-Concept geeignet, bevor in kommerzielle Lizenzen investiert wird.

Zusammenfassung: Wann welcher Ansatz

  • Große Pharma, strukturbasiertes Design, klares Target → Schrödinger
  • De-novo-Design auf bekannte Targets, externer Partnerdienst → Chemistry42 (Insilico)
  • Eigene Modelle auf eigenen Daten bauen, Azure-Infrastruktur vorhanden → Azure ML
  • Erstes Experiment ohne Budget → RDKit/DeepChem + öffentliche Datenbanken (ChEMBL, PubChem)

Datenqualität als Voraussetzung

Dieser Abschnitt verdient besondere Aufmerksamkeit, weil er die wichtigste Einschränkung des gesamten Ansatzes beschreibt.

Trainingsdaten sind der limitierende Faktor — nicht die Algorithmen.

Generative KI-Modelle für Moleküldesign brauchen als Trainingsdaten: Strukturen von bekannten Verbindungen + gemessene Eigenschaften (Aktivität, Löslichkeit, Toxizität, ADME-Daten). Die Qualität und Menge dieser Daten bestimmt, wie gut das Modell generalisiert.

Öffentliche Datenbanken (ChEMBL, PubChem, BindingDB) decken vor allem klassische pharmazeutische Zielklassen gut ab — Kinasen, GPCRs, Ionenkanäle. Für industriespezifische Substanzklassen — polymere Dispergiermittel, anorganische Flammschutzmittel, Agrochemikalien, Farbpigmente — sind öffentliche Trainingsdaten dünn.

Das bedeutet: Unternehmen, die KI-Moleküldesign für proprietäre Substanzklassen einsetzen wollen, müssen ihre eigenen historischen Assay-Daten als Trainingsbasis einbringen. Das setzt voraus:

  • Historische Daten sind strukturiert erfasst (nicht nur in Laborbüchern oder PDFs)
  • Assay-Bedingungen sind standardisiert genug für einen direkten Vergleich
  • Mindestens einige hundert, besser mehrere tausend Datenpunkte vorhanden

Wer das nicht hat, fängt mit einem Datenprojekt an — nicht mit KI. Das ist nicht pessimistisch, das ist die notwendige Vorbereitung.

Batch-Effekte: Ein in deutschen Laboren gemessener IC50-Wert ist nicht direkt vergleichbar mit einem in asiatischen Laboren gemessenen, wenn Assay-Protokolle nicht standardisiert sind. KI-Modelle, die auf Daten mit solchen systematischen Unterschieden trainiert werden, lernen partiell Artefakte. Das Ergebnis sind optimistische Vorhersagen, die im Labor nicht replizierbar sind.

Datenschutz und Datenhaltung

Molecular-Design-Projekte sind fast immer mit proprietären Daten verbunden: Eigenschaftsmessungen eigener Verbindungen, interne Synthese-Datenbanken, Projektspezifikationen. Die DSGVO ist hier nur partiell relevant (keine personenbezogenen Daten in Moleküldaten), aber Geschäftsgeheimnisschutz ist zentral.

Wer externe Plattformen wie Schrödinger oder Chemistry42 nutzt:

  • Klären, ob Trainingsdaten auf Anbieter-Infrastruktur verarbeitet werden oder lokal
  • Vertragliche Regelung zur Datenisolierung bei Multi-Tenant-Plattformen
  • Prüfen, ob der Anbieter Modelle auf Kundendaten weitertrainiert (typischerweise verboten in Enterprise-Verträgen, aber explizit klären)

Für besonders sensitive Projekte (novel chemical entities im pharmazeutischen Sinne) ist On-Premise-Deployment oder eine dedizierte Cloud-Instanz der sichere Weg — entsprechend teurer.

Azure Machine Learning mit EU-Rechenzentrum und Private Link bietet einen kompromissfähigen Mittelweg: Cloud-Computing mit kontrolliertem Datenzugriff.

Was es kostet — realistisch gerechnet

Einmalige Projektkosten

  • Datenbankaufbau (historische Assay-Daten strukturieren): 3–12 Monate interner Aufwand
  • Modellentwicklung und -validierung: 200.000–600.000 Euro (internes Team oder externe Spezialisten)
  • Wenn externe Plattform (Schrödinger, Chemistry42): Lizenzkosten ab 50.000–150.000 USD/Jahr plus Setup

Laufende Kosten

  • Kommerzielle Plattform: 50.000–200.000 USD/Jahr je nach Umfang
  • Eigenes Modell auf Azure ML: 30.000–100.000 Euro/Jahr Compute + MLOps-Aufwand
  • Personalkosten: Computational Chemist 70.000–120.000 Euro/Jahr

Wann rechnet es sich? Grobe Daumenregel: Wenn ein F&E-Programm jährlich mehr als 50 Synthesezyklen mit je 5.000–20.000 Euro Kosten pro Synthese-/Testeinheit durchführt, sind die Einsparpotenziale durch weniger fehlgeschlagene Synthesen erheblich. Bei kleinen Programmen (unter 20 Synthesezyklen/Jahr) rechnet sich der Infrastrukturaufwand nicht.

Es gibt keine schnelle Amortisation. Das ist ein 3–5-Jahres-Investment mit unsicherem aber potentiell hohem ROI. Wer eine klare Amortisationsrechnung in 18 Monaten erwartet, ist hier falsch.

Typische Einstiegsfehler

1. Mit öffentlichen Daten für eine proprietäre Substanzklasse starten. Modelle auf ChEMBL für Kinase-Inhibitoren sind gut. Wenn du aber polymere Dispergiermittel oder Haftvermittler optimieren willst: ChEMBL hilft dir kaum. Der Fehler ist, das Modell trotzdem zu trainieren — und sich von Vorhersagen leiten zu lassen, die auf fremder Domäne kaum generalisieren. Ergebnis: Hoher Aufwand, keine hilfreichen Kandidaten.

2. Das Laborvalidierungs-Budget unterschätzen. Die KI schlägt Kandidaten vor. Wer die synthetisiert und testet, und womit? Das ist nicht KI-Kosten — das ist Laborkosten. Ein häufiger Fehler: Das KI-Projektbudget wird groß angesetzt, das Laborbudget für die Validierung der KI-Vorschläge klein. Dann kommen 500 Kandidaten aus dem Modell und das Labor kann 10 testen. Der Wert des Modells bleibt unrealisiert.

3. Modellvorhersagen als Garantien behandeln. Ein Modell mit 80 % Vorhersagegenauigkeit für Aktivität bedeutet: Zwei von zehn Kandidaten, die das Modell als aktiv einstuft, sind es im Labor nicht. In frühen Programmen ist das gut. Es bedeutet nicht, dass Synthese-Entscheidungen ohne Fachurteil getroffen werden können. Das Modell priorisiert — der Chemiker entscheidet.

4. Kein Computational-Chemistry-Knowhow intern aufbauen. KI-Moleküldesign-Plattformen sind keine No-Code-Tools. Wer Schrödinger oder Chemistry42 einsetzt, braucht interne Expertise, um die Ergebnisse zu interpretieren: Ist der vorgeschlagene Kandidat synthetisch zugänglich? Sind die Bindungsaffinitätsvorhersagen auf dieser Substanzklasse valide? Ein gut trainiertes ML-System in den Händen eines nicht-spezialisierten Teams liefert schlechte Ergebnisse — oder schlimmer: scheinbar gute Ergebnisse, die im Labor nicht replizierbar sind.

Was mit der Einführung wirklich passiert — und was nicht

Der häufigste Hype-Fehler in diesem Bereich: Unternehmen, die nach dem Insilico-Medicine-Artikel-Erscheinen ein “KI-Moleküldesign-Programm” starten — mit 6 Monaten Zeitplan, externem KI-Unternehmen, ohne interne Computational-Chemistry-Expertise. 12 Monate später: Das externe Team hat ein Modell geliefert. Das interne Labor hat 15 Kandidaten synthetisiert. Zwei waren interessant. Die Erwartung war: bahnbrechende Beschleunigung. Die Realität: ein ordentliches werkzeuggestütztes Programm, das den normalen Discovery-Prozess ergänzt hat.

Das ist kein Scheitern — es ist eine realistische Erwartung. Aber es ist ein Ergebnis, das den ROI-Case für einen Vorstand schwer zu erklären macht.

Was funktioniert:

  • Teams, die Computational Chemistry bereits als Teil ihres F&E-Prozesses haben und KI als nächsten Entwicklungsschritt integrieren
  • Programme mit ausreichend historischen Daten in der eigenen Substanzklasse
  • Klare wissenschaftliche Hypothese: Was soll das Modell lösen, was heute nicht geht?
  • Geduld für einen 2–3-jährigen Validierungsprozess

Was nicht funktioniert:

  • KI als Ersatz für fehlende Forschungsinfrastruktur
  • Externe KI-Beauftragung ohne interne Expertise zur Ergebnisbeurteilung
  • Erwartung, dass KI den Laborprozess überflüssig macht

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datenbewertung & InfrastrukturMonat 1–3Historische Daten sichten, strukturieren, Qualität bewertenDaten sind zu inhomogen für Training — Standardisierungsprojekt erforderlich
Modellauswahl & PlattformentscheidungMonat 2–4Anbieter/Open-Source evaluieren, Proof-of-Concept auf kleinem DatensatzModell generalisiert schlecht auf proprietäre Substanzklasse — falsche Datenbasis
Modelltraining & -validierungMonat 4–12Modell mit internen Daten trainieren, Out-of-sample validierenZu wenig Trainingsdaten — Modell overfittet, keine Generalisierung
Erste DesignkampagneMonat 10–16Kandidatenliste generieren, Labor-Validierung der Top-50Labor-Kapazität für Validierung unterschätzt — Bottleneck liegt im Labor, nicht im Modell
Iterative VerbesserungMonat 16+Neue Labor-Daten ins Training integrieren, Modell verbessernKein internes Comp-Chem-Team für Iteration — Know-how-Abhängigkeit vom externen Anbieter

Häufige Einwände — und was dahintersteckt

„Das funktioniert nur bei einfachen Targets.” Nicht ganz richtig — und doch ein berechtigter Hinweis. Für Targets mit viel verfügbaren Strukturdaten (Kokristalle, PDB-Strukturen) sind Vorhersagen deutlich zuverlässiger als für Targets ohne strukturelle Information. Das ist keine grundsätzliche Limitation, aber eine, die den Anwendungsbereich konkret einschränkt.

„Wir haben keine Trainingsdaten.” Das ist der häufigste und ehrlichste Einwand. Die Antwort: Starte mit Transfer-Learning auf öffentlichen Datenbanken, validiere auf deiner Substanzklasse, und baue parallel den internen Datenpol auf. Das ist ein Mehr-Jahres-Projekt, aber es ist der richtige Weg.

„Ein Wirkstoff, der aus einer Maschine kommt, lässt sich nicht patentieren.” Falsch — mit Einschränkung. Der Computational Chemist, der die KI-Vorschläge bewertet und die Entscheidung trifft, welcher Kandidat synthetisiert wird, ist Erfinder. Das EPO hat das 2024 (G 0006/22) bestätigt. KI ist Werkzeug, Mensch ist Erfinder. Das ändert nichts am grundsätzlichen Patentschutz der Verbindung — solange Neuheit und erfinderische Tätigkeit belegt werden können.

Woran du merkst, dass das zu dir passt

  • Dein F&E-Budget übersteigt 500.000 Euro/Jahr und Synthesekosten sind ein relevanter Kostentreiber im Discovery-Prozess
  • Du hast bereits ein Computational-Chemistry-Team oder konkrete Pläne, eines aufzubauen — weder ein Minimum Viable Product noch ein Einstiegsprojekt
  • Du verfügst über historische Assay-Daten für die relevante Substanzklasse — mindestens mehrere Hundert, besser mehrere Tausend Datenpunkte
  • Das Screening-Problem ist klar definiert: Nicht “wir wollen KI einsetzen”, sondern “wir suchen Verbindungen mit Eigenschaft X, Y und Z und haben bisher nur Klasse A getestet”

Wann es sich definitiv (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Unter 3–4 aktiven F&E-Programmen oder unter 500.000 Euro F&E-Budget/Jahr. Die Infrastrukturkosten sind fix — bei kleinen Programmen nicht amortisierbar. Kein gutes Kosten-Nutzen-Verhältnis.

  2. Keine strukturierten historischen Assay-Daten in der eigenen Substanzklasse. Ohne proprietäre Trainingsdaten für die eigene Anwendung ist das Modell auf öffentliche Daten angewiesen — und hat keinen Informationsvorteil gegenüber dem, was Wettbewerber auch nutzen können.

  3. Kein Computational-Chemistry-Knowhow im Haus oder konkret geplant. KI-generierte Kandidatenlisten ohne fachkundige Interpretation sind keine Entscheidungsgrundlage. Ein Dienstleister kann das Modell trainieren, aber die Syntheseentscheidung muss von jemand getroffen werden, der versteht, was er synthetisiert.

Das kannst du heute noch tun

Wenn du verstehen willst, was generative KI für Moleküldesign praktisch bedeutet, ohne 6-stellig zu investieren: Die öffentlich zugängliche ChEMBL-Datenbank und das Python-Paket DeepChem (kostenlos, Open Source) ermöglichen erste Experimente auf publizierten Daten. Damit lässt sich das Prinzip der eigenschaftsbasierten Kandidatenbewertung verstehen, bevor in kommerzielle Lizenzen investiert wird.

Für eine erste strukturierte Analyse deiner eigenen Daten — welche historischen Verbindungen hast du, wie konsistent sind die Assay-Daten — eignet sich dieser Prompt:

Prompt: KI-Eignung für dein F&E-Setup einschätzen
Du bist ein Computational-Chemistry-Berater. Ich beschreibe dir unser F&E-Setup und unsere Datensituation. Bitte bewertet, ob ein KI-Moleküldesign-Ansatz für uns sinnvoll wäre, und wenn ja, was wir als Voraussetzungen klären müssten. UNSER SETUP: - Substanzklasse: [z.B. "Amphiphile Tenside für Reinigungsformulierungen"] - Ziel-Eigenschaften: [z.B. "Hohes Schaumvermögen, niedrige Oberflächenspannung unter 30 mN/m, biologisch abbaubar"] - Programm-Größe: [z.B. "ca. 40 neue Verbindungen/Jahr synthetisiert und getestet"] - Historische Daten: [z.B. "500 Messungen mit Tensidaktivität aus den letzten 8 Jahren, in Excel-Tabellen, teils unterschiedliche Testprotokolle"] - Teamgröße: [z.B. "3 Synthesechemiker, kein Computational Chemist"] - Budget: [z.B. "F&E-Budget ca. 800.000 €/Jahr"] Bitte beantworte: 1. Reichen unsere Trainingsdaten für ein sinnvolles ML-Modell? 2. Was wären realistische erste Schritte? 3. Was würde ein erster Proof-of-Concept kosten (Zeit + Geld)? 4. Was ist das realistischste Szenario für unsere Substanzklasse? 5. Wann sollten wir definitiv noch NICHT anfangen?
Funktioniert mit Claude, ChatGPT
Beispiel-Ausgabe

Mitarbeiter:in

500 Messungen, Tensid-Systeme, 3 Synthesechemiker, kein Comp-Chem, Budget 800k€/Jahr.

KI-Assistent

EINSCHÄTZUNG FÜR EUER SETUP: TRAININGSDATEN: 500 Datenpunkte sind ein Grenzfall. Für ein erstes Proof-of-Concept ausreichend, für ein produktives generatives Modell knapp. Kritischeres Problem: Unterschiedliche Testprotokolle über 8 Jahre bedeuten wahrscheinlich systematische Messabweichungen. Vor dem Modelltraining: Datenharmonisierung (welche Messungen sind direkt vergleichbar?) ist obligatorisch. REALISTISCHE ERSTE SCHRITTE: 1. Datenaudit (2–4 Wochen intern): Wie viele Datenpunkte sind tatsächlich vergleichbar? Ziel: homogener Kerndatensatz. 2. Regressionsmodell als Baseline (nicht generativ, aber schneller): Vorhersage von Oberflächenspannung aus Strukturmerkmalen. Kosten: 2–4 Wochen mit einem externen ML-Freelancer. 3. Erst danach: Generatives Modell für neue Strukturvorschläge. KOSTEN ERSTER PoC: 20.000–50.000 € (externer ML-Dienstleister + interne Chemiker-Zeit für Datenaufbereitung und Labor-Validierung). REALISTISCHES SZENARIO: In 12–18 Monaten ein Modell, das Oberflächenspannung mit ~80% Genauigkeit vorhersagt und 20–50 neue Kandidaten pro Designzyklus priorisiert. Laborbeweis für die Kandidaten: weitere 6–12 Monate. Beschleunigung des Discovery-Prozesses: real, aber moderat — von 40 auf ca. 60–70 valide Kandidaten/Jahr. WANN NOCH NICHT ANFANGEN: Wenn ihr die Datenharmonisierung überspringen wollt. Ein Modell auf inkonsistenten Daten liefert inkonsistente Vorhersagen — das ist schlimmer als kein Modell.

Quellen & Methodik

  • Insilico Medicine — ISM001-055 Phase IIa: Insilico Medicine, Pressemitteilung Juni 2025. Positive Phase-IIa-Daten für den ersten KI-generierten Wirkstoffkandidaten in idiopathischer Lungenfibrose. Peer-reviewed Daten in klinischen Journals ausstehend bei Redaktionsschluss.
  • Insilico Medicine — Entwicklungszeitraum 18 Monate: Zhavoronkov et al., „Deep learning enables rapid identification of potent DDR1 kinase inhibitors”, Nature Biotechnology (2019); und Ren et al., Chemistry42-Plattformbeschreibung, J. Chem. Inf. Model. (2023).
  • Schrödinger FEP+-Trefferquoten: Wang et al., „Accurate and Reliable Prediction of Relative Ligand Binding Potency in Prospective Drug Discovery”, JACS (2015); Schrödinger interne Studiendaten (vendor-disclosed, keine unabhängige Replikation).
  • Größe chemischer Raum: Ertl & Schuffenhauer, Schätzung 10^60 Verbindungen — Virshup et al., J. Am. Chem. Soc. (2013).
  • Patentrecht KI-Erfinder: EPO, Entscheidung der Großen Beschwerdekammer G 0006/22 (2023) — KI-Systeme können nicht als Erfinder benannt werden; bestätigt in BPatG und nationalen Verfahren.
  • DeepChem, RDKit: Open-Source-Bibliotheken für Computational Chemistry (deepchem.io, rdkit.org).
  • ChEMBL-Datenbank: EMBL-EBI, ChEMBL — über 2 Millionen einzigartige Verbindungen mit biologischer Aktivität (Stand April 2026). chembl.ebi.ac.uk.
  • Implementierungskosten und Zeitrahmen: Brancheneinschätzungen aus öffentlich zugänglichen F&E-Benchmarking-Quellen und Anbieterangaben; keine unabhängige Primärerhebung.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar