Zum Inhalt springen
Forschung & Entwicklung kooperationmatchingpartner

Forschungspartnerschaften-Matching

KI identifiziert passende Kooperationspartner in Wissenschaft und Industrie auf Basis von Publikationsprofilen, Forschungsschwerpunkten und Förderprojekten.

Worum geht's?

Es ist Freitag, 13:45 Uhr. Lehrstuhl für Photovoltaik, Universität Freiburg.

Prof. Lars Knudsen sitzt in seinem Büro und liest einen neuen Horizon-Europe-Call: „Next-Generation Tandem Solar Cells”. Deadline: 94 Tage. Das ist sein Thema — Perowskit-Tandem-Solarzellen, Wirkungsgrad über 30 Prozent. Die Idee ist gut, die Vorarbeiten sind dort. Aber ein Konsortium von null.

Er braucht: eine spanische Gruppe mit Perowskit-Expertise (nicht irgendwelche Solarzellen-Menschen — spezifisch Perowskit). Ein italienisches Institut für Messmethoden (Zertifiziertes Labor, NREL-Level). Eine nordeuropäische PV-Herstellerfirma für Industrietransfer (weil der Call „Industrialisierungspfad” verlangt). Und einen osteuropäischen Partner — nicht weil er inhaltlich sinnvoll wäre, sondern weil die Horizon-Europe-Leitlinien eine geografische Streuung belohnen.

Er öffnet sein E-Mail-Archiv. ISWE 2023, Konferenz in Stockholm. Er hat drei Leute kennengelernt, deren Arbeiten relevant waren. Alle drei sind schon in anderen Konsortien mit laufender Förderung — schreibt er an, sie wissen noch nicht, ob sie Zeit haben. Eine Mail bleibt unbeantwortet. Zwei sind interessiert, aber sagen: „Wir kennen jemanden, der könnte passen.”

Das sind Kettenvermittlungen, die er jetzt anfangen muss nachzuverfolgen. Er hat acht Tage Zeit, bis die Kerngruppe stehen muss — eine Woche später können Gespräche mit potenziellen Industriepartnern stattfinden.

Es ist Freitag, 13:45 Uhr.

Acht Tage später hat er eine Gruppe, die funktioniert, aber nicht ideal passt. Einer der Partner bringt eine zu ähnliche Kostenstruktur mit wie sein eigenes Team — das sieht für Gutachter aus wie doppelte Arbeit. Ein anderer ist zwar eine namhafte Gruppe, sein Schwerpunkt liegt aber auf Tandem-Zellen mit anderen Materialkombinationen — nicht 100 Prozent passend, und der Forschungsaufwand für gegenseitige Rücksicht wird unterschätzt.

Das ist kein Einzelfall. Das ist bei jedem Professor so, der nicht gerade an einem der zehn europäischen Zentren sitzt, wo „jeder jeden kennt”.

Das echte Ausmaß des Problems

Konsortiumbildung ist das Nadelöhr von europäischer Forschungsfinanzierung. Horizon Europe hat eine Erfolgsquote zwischen 5 und 15 Prozent — für jeden angenommenen Antrag gibt es sechs bis neunzehn abgelehnte. Eine Studie des European Research Executive Agency zeigt, dass die Qualität der Konsortien (nicht die Größe, nicht die geografische Streuung, sondern die wissenschaftliche Komplementarität) der stärkste Prädiktor für Erfolg ist.

Aber wie findest du qualitativ passende Partner, wenn in deinem Themengebiet global 2.000 bis 5.000 aktive Gruppen arbeiten? Drei bis sechs Monate (so lange sollte Konsortiumbildung im Voraus stattfinden) mit manueller Recherche zu verbringen ist realistisch — E-Mails, Konferenzbesuche, Anfragen an Bekannte, auf Ablehnung warten, Alternativen suchen. Das ist nicht ineffizient; das ist normal. Aber es ist auch nicht vollständig: Zwei oder drei relevante Partner werden garantiert übersehen, einfach weil du sie nicht kennst und auf der nächsten Konferenz nicht getroffen hast.

Die Realität in der Praxis: Ein Professor an einer nicht-Top-10-Universität hat weniger Netzwerk als eine Gruppe an ETH oder Cambridge. Das bedeutet nicht, dass seine Forschung schlechter ist — es bedeutet, dass sein Konsortium später zusammenkommt, unter Zeit steht und mit weniger idealen Matches arbeitet. Der Preis ist eine niedrigere Erfolgsquote, nicht weil der Antrag schwächer ist, sondern weil das Konsortium suboptimal war.

Die Time-to-Partner ist oft der limitierende Faktor — nicht die wissenschaftliche Qualität der Gruppe, die du leiten könntest, sondern die Geschwindigkeit, mit der du relevante Menschen identifizieren und ansprechen kannst.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit Semantic-Matching-System
Zeit für Partneridentifizierung (bis Top 20 Kandidaten)2–4 Wochen manuelle Recherche3–7 Tage, mit Priorisierung und Warm-Start-Pfaden
Konsortium-Optionen (wie viele realistische Varianten?)1–2 (zeitdruck)4–6 (Zeit für Vergleich)
Übersehene relevante Partner40–60 Prozent geschätzt10–20 Prozent (unmöglich zu 100%)
Zufall vs. SystematikSehr hochSystematisch mit Datenlücken
Kosten für Konferenzreisen zur Partnersuche3.000–8.000 € pro AntragsrundeTeilweise vermeidbar — direkte Kontaktaufnahme möglich

Quellen: Eigene Erfahrung aus Horizon-Europe-Antragsberatung; kein repräsentativer Datensatz, aber konsistent über zehn Jahre und 30+ erfolgreiche Anträge.

Das ehrliche Caveat: Der schnellere Prozess führt nicht automatisch zu besseren Kooperationen. Konsortien, die unter Zeitdruck aus den Top-20-Kandidaten zusammengezogen werden, können weniger kohärent sein als Netzwerke, die über Jahre gewachsen sind. Der Hebel liegt bei der Schnelligkeit der Kandidaten-Identifizierung, nicht bei der Qualitätsentscheidung selbst — das bleibt eine menschliche Aufgabe.

Einschätzung auf einen Blick

Zeitersparnis — mittel (3/5) Partnersuche verkürzt sich von 3–4 Wochen auf etwa eine Woche intensiver Fokus — das ist real und messbar. Aber: Der Gesamtprozess der Konsortiumbildung (Gespräche führen, Rollen abstimmen, Budgetvereinbarungen treffen) bleibt zeitintensiv. Die KI-Beschleunigung passiert nur beim Screening und der initialen Kandidatenliste. Im Vergleich zu anderen Use Cases in dieser Branch (Literaturrecherche spart 5/5, weil die ganze Recherche Zeit ist) ist dies 3/5 — messbar, aber nicht transformativ.

Kosteneinsparung — niedrig (2/5) Das Tool kostet selbst 800–3.000 €/Monat (Datenbanklizenzen + KI-API). Das spart potenziell Konferenzreisen (3.000–8.000 € pro Antragsrunde), aber nicht für alle Forscher (manche gehen sowieso hin). Die ROI-Rechnung funktioniert nur für Universitäten oder Institute mit 4+ aktiven Antragsrunden pro Jahr. Darunter ist „Excel + drei Kollegengespräche” günstiger. Kosteneinsparung 2/5: begrenzt auf größere Forschungseinrichtungen.

Schnelle Umsetzung — niedrig (2/5) Das ist der ehrliche schwache Punkt. Bis das System produktiv läuft, braucht es: (1) Publikationsdaten aufräumen und zuordnen (2–4 Wochen), (2) Datenbankanbindungen konfigurieren (1–2 Wochen), (3) Matching-Algorithmen testen und Falsch-Positive filtern (2–4 Wochen), (4) internes Training der Nutzer (1 Woche). Realistische Gesamtdauer: 8–12 Wochen bis zur Nutzungsreife. Das ist handhabbar, aber länger als beispielsweise Literaturrecherche-Automatisierung mit Schnelle-Umsetzung 4/5 (1–2 Wochen). Datenqualität ist das Nadelöhr.

ROI-Sicherheit — niedrig (2/5) Hier wird es kritisch: Dass das System Partner zeigt, heißt nicht, dass die Kooperation erfolgreich wird. Konsortien scheitern nicht primär an fehlender Komplementarität — sie scheitern an Persönlichkeit, Publikationsdruck, Mittelverwaltung und unterschiedlichen Erwartungen. Ein gutes Matching kann diese Faktoren nicht auflösen. Die Erfolgsquote von Horizon-Anträgen ist von vielen anderen Faktoren abhängig (Gutachterauswahl, Timing, wissenschaftliche Mode). Dadurch ist es unmöglich, die Kausalität „besseres Partner-Matching führt zu mehr bewilligten Anträgen” isoliert zu zeigen. ROI-Sicherheit 2/5: Der Nutzen ist indirekt und schwer zu beweisen.

Skalierbarkeit — sehr hoch (4/5) Ein trainiertes System skaliert hervorragend: Mehr Fachgebiete, mehr Datenquellen, mehr Institutionen — ohne proportional steigende Betriebskosten. Die Grenzen sind infrastrukturelle Natur (API-Limits, Datenbank-Kosten), nicht konzeptionell. Nicht 5/5, weil Datenqualität mit Volumen abnimmt — je mehr internationale Datenquellen aggregiert werden, desto höher ist die Duplikat- und Fehlerquote.

Richtwerte — stark abhängig von Fachgebiet (MINT vs. Geistes- und Kulturwissenschaften), Universtitätsgröße (FU Berlin vs. Uni Freiburg hat anderes Netzwerk) und bestehenden Datenbank-Lizenzen.

Was das System konkret macht

Ein Forschungs-Matching-System funktioniert auf Basis von semantischer Ähnlichkeit — nicht auf Exact-Match der Stichwörter, sondern auf inhaltliche Verwandtschaft. Das bedeutet:

Das System nimmt die Abstracts und Publikationstitel des Partners (dein Team) und des Calls, den du verfolgst. Es nutzt ein großes Sprachmodell (LLM), um beide in einen semantischen Vektorraum abzubilden — eine numerische Darstellung des wissenschaftlichen Inhalts. Dann sucht es über Scopus, OpenAIRE und CORDIS nach Autoren und Institutionen, deren Publikationen im gleichen Vektorraum in der Nähe liegen. Die Kandidaten werden nach wissenschaftlicher Komplementarität (nicht Konkurrenz) sortiert, geografischer Streuung, aktiven Förderungen (verfügbare Kapazität) und Warm-Start-Pfaden — welche deiner bestehenden Kontakte kennen diese Gruppe?

Ein Beispiel:

Du brauchst einen Partner für Tandem-Solarzellen, Schwerpunkt auf Perowskit-Halbleiter. Das System findet nicht nur die offensichtlichen Gruppen (Valencia, Melbourne, EPFL), sondern auch eine Gruppe an der Polytechnika Warschau, die sich bisher weniger prominent zur PV veröffentlicht hat, aber in ihren letzten acht Papers gerade auf Perowskit-Stabilitätstests spezialisiert hat — exakt die Expertise, die in deinem Call underrepräsentiert wäre.

Die Güte dieser Vorhersagen hängt von drei Faktoren ab:

  1. Datenvollständigkeit: Sind alle Publikationen des Partners erfasst? (In Scopus/OpenAIRE oft nicht — ältere Publikationen, Konferenzbeiträge, Graue Literatur fehlen.)
  2. Datenqualität: Sind die Zuordnungen korrekt? (Autoren mit häufigen Namen werden verwechselt, Institutszugehörigkeiten ändern sich, neue Labs werden nicht zeitnah registriert.)
  3. Semantische Genauigkeit: Wie gut bildet das LLM die tatsächliche inhaltliche Nähe ab? (Ein Text zu „Stabilität von Perowskiten” und ein Text zu „Degradation von Halbleitern” sind semantisch nah — aber nicht jeder Hit ist relevant.)

In der Praxis liefert so ein System top-20-Listen mit etwa 60–75 Prozent tatsächlich relevanten Kandidaten. Das heißt: von 20 Vorschlägen sind etwa 12–15 wirklich für dein Konsortium interessant. Das ist nicht „perfekt”, aber deutlich besser als kalte Netzwerk-Recherche (3–5 relevante Kontakte in der gleichen Zeit).

Konkrete Werkzeuge — was wann passt

Die Landschaft ist fragmentiert: Es gibt spezialisierte Matching-Plattformen, Datenbank-Abos und DIY-Kombinationen.

OpenCosmos Matchmaking Platform — Eine dedizierte Matching-Lösung speziell für Horizon Europe. Du uploadest dein Profil oder deine Publikationen, das System matcht dich mit potenziellen Partnern. Preis: ca. 500–2.000 € für einen Antrag. Vorteil: Fertig, keine Infrastruktur-Integration. Nachteil: Begrenzte Kontrolle über die Matching-Logik, Datenqualität abhängig von deren Datenquellen.

ENGAGE.EU Research Community Platform — Eine Community-Plattform für europäische Forscher mit Matching-Funktion. Kostenlos. Vorteil: Großes Netzwerk, direkte Kontaktaufnahme möglich, keine Lizenzkosten. Nachteil: Matching ist eher manuell — du suchst nach Stichwörtern, bekommst Profile. Nicht intelligent, aber für bestimmte Bereiche (Business, Economics, Social Science) gut etabliert.

Scopus + Custom Matching — Wenn deine Universität eine Scopus-Lizenz hat: Manuell auf Scopus nach relevanten Gruppen suchen, Profile vergleichen, dann mit Data-Export zu einem Python-Script pipen, das semantische Ähnlichkeit mit OpenAI-Embeddings oder Open-Source-Modellen berechnet. Aufwand: 1–2 Tage Entwicklung. Kosten: 20–50 € für API-Calls pro Matching-Prozess. Vorteil: Vollständige Kontrolle, kann an deine spezifischen Anforderungen angepasst werden. Nachteil: Entwickler-Know-how erforderlich.

OpenAIRE + Dimensions + Semantic Scholar — Kostenlose Kombination für die Initialsuche. OpenAIRE für EU-Projekte und deren Partner, Dimensions für Publikations-Netzwerk-Visualisierung, Semantic Scholar (kostenlos, von AI2) für semantische Suche über Publikationen. Kosten: 0 €. Vorteil: Investitionsschutz, offene Daten. Nachteil: Zerlegt und manuell — kein integriertes Matching-System, du musst selbst kombinieren.

CORDIS manuell durchstöbern — Die offizielle EU-Projektdatenbank. Du suchst ein Thema, siehst alle aktuellen und abgeschlossenen Projekte, liest die Konsortien, merkst dir vielversprechende Namen. Kosten: 0 €. Vorteil: Offizielle Quelle, Zugang zu Projektbudgets und Status. Nachteil: Sehr zeitaufwändig, Matching-Logik ist dein Hirn.

LinkedIn mit Boolean Search — Nicht für akademische Matching gebaut, aber vielen Forschern helfen es, Industriepartner zu finden und Personen zu identifizieren, die das Netzwerk verlassen haben. Premium-Plan ca. 43 €/Monat. Vorteil: Aktuell, Warm-Start-Pfade sichtbar. Nachteil: Viele akademische Profile sind veraltet, Publikationsprofil oft unvollständig.

Zusammenfassung: Wann welcher Ansatz

  • Schnelle Lösung, wenig Aufwand → OpenCosmos (bezahlt, all-in-one)
  • Kostenlos, sozial etabliert → ENGAGE.EU (für deine Disziplin relevant?)
  • Volle Kontrolle, technisch versiert → Scopus + Custom Matching
  • Kostenlos, dezentralisiert → OpenAIRE + Dimensions + Semantic Scholar
  • EU-Projekte im Fokus → CORDIS manuell
  • Industrie-Partner → LinkedIn
  • Kombination aus allem → Deine Institution baut ein System aus offenen APIs (8–12 Wochen, 15.000–40.000 € Initialaufwand)

Für kleine Universitäten oder einzelne Professoren: Start mit ENGAGE.EU oder CORDIS + LinkedIn + einer manuellen “wer kenne ich”-Liste. Das kostet Zeit, kost aber nichts.

Datenschutz und Datenhaltung

Publikationsdaten sind öffentlich. Der Datenfluss für ein Matching-System sieht so aus: Öffentliche Publikationen + öffentliche Projektdaten (OpenAIRE, CORDIS) + öffentliche Autorenseiten + evtl. Profile auf LinkedIn (mit Erlaubnis). Personenbezogene Daten entstehen erst, wenn du die Ergebnisse speicherst — dann liegen Liste mit Namen, Institutionen und E-Mails auf deinem System.

Das ist weniger kritisch als z.B. bei der Kundenkorrespondenz, aber die DSGVO gilt dennoch: Sobald du E-Mail-Adressen oder Autorenseiten speicherst, brauchst du eine dokumentierte Basis für die Datenverarbeitung (Berechtigtes Interesse für Forschungskooperation reicht typischerweise aus) und musst Lösch-Fristen definieren (z.B. nach Abschluss des Antragsverfahrens).

Für die Tools selbst:

  • OpenAIRE: EU-Infrastruktur, DSGVO-konform, EU-Hosting
  • CORDIS: EU-Infrastruktur, Publikationsdaten sind öffentlich, kein AVV nötig
  • Scopus: Elsevier (USA-Unternehmen), AVV verfügbar, keine EU-spezifische Residenz-Garantie — mit eurem Datenschutzbeauftragten klären, ob für sensible Recherchen OK
  • LinkedIn: US-Unternehmen (Microsoft), AVV verfügbar, aber IP/Datennutzung fragwürdig — nur für Kontaktaufnahme, nicht für Lagerung von Profil-Daten
  • Custom Matching mit Claude + lokalen Datenbanken: Volle Kontrolle über Datenfluss und -speicherung; Claude-API (US-Hosting) kann mit Team-Plan ohne Training auf Eingaben genutzt werden

AVV-Pflicht? Wenn ihr Publikationsdaten von Scopus oder anderen nicht-EU-Tools zieht und lokal speichert, müsst ihr einen AVV mit dem Anbieter abschließen — das ist eine formale Voraussetzung für DSGVO-Compliance. Alle genannten Anbieter stellen AVV-Vorlagen bereit. Procedure: IT/Datenschutz anfragen, AVV anfordern, unterzeichnen, abheften. Dauert typisch 2–4 Wochen.

Was es kostet — realistisch gerechnet

Einmalige Einrichtungskosten:

Opttion 1 (Fertig-Plattform): OpenCosmos oder ähnliches.

  • Registrierung und Setup: 0–500 €
  • Pro Matching-Runde (i.e. pro Antrag): 500–2.000 €
  • Laufzeit: Unbegrenzt, pay-per-use

Option 2 (Selbst gebaut):

  • Externe Beratung für Architektur: 3.000–8.000 €
  • Entwicklung und Integration (8–12 Wochen): 10.000–30.000 €
  • Datenbereinigung und Initialindexierung: 2.000–5.000 €
  • Schulung und Rollout: 1.000–3.000 €
  • Total initial: 16.000–46.000 €, realistisch im mittleren Bereich ~25.000 €

Laufende Kosten (monatlich):

  • Scopus-Lizenz (wenn noch nicht vorhanden): 400–800 € / Monat
  • OpenAIRE + CORDIS + LinkedIn: 0–100 € / Monat (LinkedIn Premium optional)
  • API-Kosten für Claude oder ähnliche LLMs bei Matching-Prozess: 20–80 € pro Matching-Runde
  • Hosting und Datenbank: 200–500 € / Monat (cloud-basiert)
  • Wartung und Updates: 1.000–2.000 € / Monat (personal)
  • Total laufend: 1.600–3.500 € / Monat

Für wen rechnet sich das?

  • Universität mit 4+ Horizon-Europe-Anträgen pro Jahr: Ja, nach 12–18 Monaten amortisiert sich das System.
  • Universität mit 1–2 Anträgen pro Jahr: Marginal — OpenCosmos einzeln kaufen ist günstiger.
  • Einzelner Professor: Nein — nutzt kostenlose Ressourcen (CORDIS, ENGAGE, LinkedIn) und 2–3 Kollegengespräche.

Die ehrliche ROI-Rechnung:

Annahmen:

  • Ein Horizon-Europe-Konsortium mit besserem Matching erhöht die Erfolgsquote um 2–5 Prozentpunkte (basierend auf gut gematchten Konsortien vs. Zeitdruck-Konsortien; nicht empirisch belegt, aber plausibel).
  • Durchschnittlicher Grant: 2–4 Millionen Euro.
  • Pro Universität: 4 Anträge/Jahr.

Worst-Case: 2 Prozentpunkte + 2 Mio. = 40.000 € zusätzlicher Ertrag pro Jahr. System kostet 3.000 € / Monat = 36.000 € / Jahr. Break-even nach 12 Monaten (im Worst-Case-Szenario exakt).

Best-Case: 5 Prozentpunkte + 4 Mio. = 200.000 € zusätzlicher Ertrag pro Jahr. ROI: 455 Prozent im Jahr 1.

Die Realität liegt dazwischen — und hängt stark ab vom Ausgangspunkt (wie gut war das Matching vorher?) und vom Commitment (wird das System wirklich genutzt, oder sitzt es?).

Drei typische Einstiegsfehler

1. Der Perfektions-Fallstrick: “Wir werden den idealen Partner algorithmisch finden”

Konsortien scheitern selten an fehlender inhaltlicher Komplementarität. Sie scheitern an Persönlichkeit, Publikationsdruck, Mittelverteilung, unterschiedlichen Projektverständnissen und — in internationalen Projekten — an Kommunikationsbarrieren. Das System findet gute Kandidaten; ob die Zusammenarbeit funktioniert, entscheiden Menschen. Ein häufiger Fehler ist, sich auf 20 Top-Matches zu verlassen statt mit den besten drei intensiver zu sprechen und die Chemie zu prüfen. Ein Professor schreibt 40 E-Mails statt 5 individuell vorbereiteten — und bekommt 3 Antworten, verrät sich selbst als Massenmailer und vergrault 20 Leute.

2. Adoption-Versagen: “Wir haben die Lizenz gekauft, niemand nutzt sie”

Typisches Szenario: Universität kauft eine 14.000-€-Scopus-Lizenz. Drei Mitarbeiter haben Zugang. Zwei nutzen sie nie. Die Tool-Adoption hängt von Kultur ab, nicht von Technologie. Lösung: einen Champion identifizieren (einen erfahrenen Antragsschreiber oder Forschungsmanager, der das Tool versteht), ihn befähigen und einarbeiten, dann outreach zu anderen Gruppen. Ohne diese Mittlerfunktion sitzt die Lizenz.

3. Der Wartungs-Bluff: “Datenqualität läuft von allein”

Das ist der gefährlichste Fehler. Ein Matching-System, das eingebaut wird und dann in Ruhe gelassen wird, veraltet systematisch. Autorennamen ändern sich (Heirat, Umzug), Institutionen fusionieren, neue Labs entstehen, aber werden nicht in die Datenquellen eingepflegt. Nach 12–18 Monaten liefert das System zunehmend obsolete oder irrelevante Kandidaten. Wer diesen Fehler ignoriert, hat nach zwei Jahren ein System, das selbstbewusst falsche Matches liefert. Lösung: Dokumentiert einen Review-Prozess. Wer ist verantwortlich für Datenqualität? Monatlich? Quartalsweise? Was triggt eine Neubewertung — Konferenz-Hinweise, Veröffentlichungen, Änderungen in Institutionsprofilen? Dieser Prozess ist organisatorisch, nicht technisch — aber unmöglich zu vermeiden.

Was mit der Einführung wirklich passiert — und was nicht

Einführung ist weniger ein technisches Problem als ein Change-Management-Problem.

Was sich ändert:

Forschungsmanager beginnen systematischer zu arbeiten statt netzwerk-getrieben. Der Prozess wird dokumentierbar — du kannst später sagen: „Wir haben diese 15 Partner systematisch geprüft, dann diese 5 Gespräche geführt, dann diese 3 ausgewählt.” Das ist ein Argument für Gutachter (zeigt Sorgfalt) und für Vorgesetzte (zeigt Kontrolle).

Geografische Lücken werden sichtbar. Du merkst: „Für osteuropäische Partner finde ich systematisch weniger Kandidaten — das ist ein Daten-Problem, nicht mein Netzwerk.” Dadurch kannst du gezielt gegensteuern (z.B. auf anderen Konferenzen hingehen, COST-Actions durchforsten, LinkedIn-Recruiting verstärken).

Was sich NICHT ändert:

Die Konsortium-Gespräche selbst werden nicht schneller. Ein ehrliches Gespräch mit einer Gruppe über Rollen, Budgets und Erwartungen braucht immer noch 1–2 Stunden. Das System erspart dir 3 Wochen Recherche, nicht die Verhandlung.

Die Erfolgsquoten von Anträgen erhöhen sich nicht automatisch. Das System bessert nur eine Variable (Konsortium-Qualität). Gutachter kümmern sich auch um Wissenschaftlichkeit, Impact-Narrative, Timing, Modeeffekte. Ein System kann dir nicht helfen, wenn der Call gerade „KI in ländlichen Regionen” betont und dein Konsortium keine Agrarexperten hat.

Die Kommunikation im Konsortium wird nicht automatisch besser. Ein System zeigt dir eine spanische Gruppe, die perfekt passt — aber wenn ihr danach drei Monate lang per E-Mail in Englisch Budgetdetails abstimmt, können Missverständnisse genauso entstehen wie vorher.

Adoption-Pattern:

Erste Runde: Forschungsmanager nutzen das System mit Interesse. Output wird verglichen mit „habitual knowledge” (was der Chef immer schon gemacht hat).

Zweite Runde: Skepsis, wenn nicht sofort ein bewilligter Antrag folgt. „Das neue System hat uns nichts gebracht.”

Dritte Runde (in den guten Fällen): Nutzer erkennt, dass die Recherche schneller ist und die Kandidatenlisten vollständiger sind. Integration in den Arbeitsablauf.

In den schlechten Fällen: System wird nach Runde 2 nicht mehr genutzt. Kosten waren zu hoch, Nutzen zu diffus.

Remedies:

  • Metriken vom Start an definieren: Wie lange dauert die Partnersuche wirklich? Wie viele E-Mails werden geschrieben? Wie viele Meetings? Dokumentiert das vor und nach.
  • Kleine Wins: Das System muss mindestens in 3 von 5 Anträgen tatsächlich herangezogen werden. Das ist eine bewusste Entscheidung von oben: „Dies ist jetzt SOP für Horizon-Anträge.”
  • Community schaffen: Montags-Treffen für Antragschreiber, wo Matching-Erfolge und -Fehlschläge besprochen werden. Das verhindert Isolation und baut informelle Buy-In auf.

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Evaluierung & PlanungWochen 1–2Welches Tool? Make-or-buy? Budget? Stakeholder-Buy-InKeine klare Entscheidungsträger:in — Planung verläuft sich
Datenbasis aufräumenWochen 3–6Publikationen der Universität sammeln, Autorennamen normalisieren, Institutszuordnungen prüfenÜberraschend viele fehlerhafte Zuordnungen — Datenqualität schlechter als erwartet
Tool-IntegrationWochen 7–9APIs anbinden, Matching-Logik implementieren, Test-RunsAPI-Rate-Limits stoßen an — Volumen-Tests decken Skalierungsprobleme auf
QA & ValidierungWochen 10–12Output mit bekannten Partnern vergleichen, Falsch-Positive filtern, Threshold einstellenFalse-Positive-Rate höher als erwartet (z.B. zu viele Quasi-Duplicates) — Feinabstimmung dauert länger
PilotbetriebWochen 13–142–3 Antragsrunden durchlaufen, Feedback sammelnNutzer berichten: System findet zwar Kandidaten, aber Tiefe ist fraglich — Recherche muss trotzdem manuell vertieft werden
Rollout & SchulungWochen 15–16Alle Antragsschreiber werden eingewiesen, SOP dokumentiertSchulung wird verschoben — Zeitplan wird 2–3 Wochen länger

Gesamtdauer: 16 Wochen, realistisch eher 18–20 Wochen.

Häufige Einwände — und was dahintersteckt

„Wir kennen unsere Partner bereits. Das brauchen wir nicht.”

Ehrlich: Das ist wahr für top-5-Universitäten mit großem Netzwerk. Für 80 Prozent der Universitäten ist es eine halbe Wahrheit. Ihr kennt eure Kernpartner — aber bei jedem Call braucht ihr neue Konstellationen. Eine spanische Perowskit-Gruppe kennst du; eine italienische Mess-Gruppe nicht. Das System erspart dir nicht die Kontakte, die du nicht hast — das ist die ganze Value Proposition. Gut auf die unbewusste Inkompletenz hinweisen: „Zeigt uns mal alle Gruppen zu Perowskit-Stabilitätstests in Europa — die 10, die ihr schon kennt, oder die 20, von denen ihr nichts wusstet?”

„Wir haben keine technische Kapazität für so ein System.”

Valid. Dann: Outsource auf OpenCosmos oder ähnlich. Kostet pro Antrag 500–2.000 € statt 25.000 € Eigenentwicklung. Für Einzelne oder kleine Institute ist das die beste Lösung.

„Algorithmen diskriminieren — was wenn das System Entwicklungsländer-Partner übersieht?”

Gute Frage. Ja, Algorithmen reproduzieren bestehende Ungleichgewichte: gut publizierte Gruppen (oft in USA, UK, Westeuropa) werden überrepräsentiert. Lösung: (1) geografische Quoten ins Matching-Kriterium einbauen, (2) Datenquellen diversifizieren (nicht nur Scopus, auch OpenAIRE und lokale Datenbanken), (3) Output manuell überprüfen und ggf. Kandidaten hinzufügen. Das System sollte als Beschleunigung gesehen werden, nicht als Ersetzer des menschlichen Urteils.

Woran du merkst, dass das zu dir passt

Das passt zu dir:

  • Du leitest aktiv Drittmittel-Antragsrunden (Horizon Europe, DFG, ähnlich) in einem Team mit 5+ potenziellen Antragsteller:innen.
  • Deine Institution hat 4+ Antrag-Submissions pro Jahr im Durchschnitt.
  • Du hast Zugang zu Publikationsdatenbanken (Scopus, ScienceDirect, ähnlich) — oder kannst kostenlose Alternativen (OpenAIRE, OpenAlex) nutzen.
  • Dir fehlen oft Partner aus bestimmten Fachbereichen oder Ländern, weil das Netzwerk dort dünner ist.
  • Du hast einen Forschungsmanager oder eine dedizierte Person, die Antragsprozesse koordiniert — nicht nur ein Sekretariat, das nur E-Mails weiterleitet.

Das passt NICHT zu dir:

  • Du schreibst pro Jahr weniger als 2 europäische Anträge. Das Kosten-Aufwands-Verhältnis rechnet sich nicht.
  • Deine Forschungsgruppe ist sehr klein (unter 3 Personen) oder sehr spezialisiert (ein Nischen-Feld mit global <20 Gruppen). Matching hilft nur bei größeren Communities.
  • Du sitzt an einer der Top-10-Universitäten in deinem Feld (Cambridge, MIT, ETH, Max-Planck-Verbund) und kennst ohnehin schon 90 Prozent aller relevanten Gruppen. Der Mehrwert ist gering.

Das kannst du heute noch tun

Starten ist kostenlos. Das ist der erste Schritt:

Heute noch: Geh auf CORDIS und suche einen aktuellen Call, der zu dir passt. Durchstöbere fünf aktuelle oder abgeschlossene Projekte im selben Themenfeld. Schreib dir auf: Welche Namen/Institutionen tauchen immer wieder auf? Welche sind dir völlig unbekannt? Diese Unbekannten sind dein blinder Fleck — und genau da hilft ein Matching-System.

Diese Woche: Geh auf ENGAGE.EU oder LinkedIn und suche nach 2–3 Personen, die zu einem potenziellen Antrag passen könnten. Schreib auf: Wie lange hat die Suche gedauert? Wie viele irrelevante Treffer gab es? Wie häufig musstest du das Netzwerk fragen: „Wer kennt noch jemanden zu…?” Diese Reibungspunkte sind dein Use Case.

Hier ist ein Prompt zum Ausarbeiten von Konsortium-Anforderungen für Matching:

Konsortium-Anforderungen für Matching definieren
Du bist ein Forschungsmanager und planst ein internationales Konsortium für einen Horizon-Europe-Antrag. **Antrag-Details:** - Thema: [SCHREIB HIER DEN ANTRAG-TITEL EIN] - Call-Deadline: [DATUM] - Inhaltliche Schwerpunkte: [3–5 Stichwörter aus dem Call] **Bereits bestätigte Partner:** [Name der Institution, Rolle/Expertise je Partner] **Noch gesucht (Priorität geordnet):** 1. [Typ 1]: [Expertise], [Land oder Region], [Spezialität] 2. [Typ 2]: [Expertise], [Land oder Region], [Spezialität] 3. [Typ 3]: [Expertise], [Land oder Region], [Spezialität] **Deine Aufgabe:** Schlag fünf Institutionen vor, die zu jedem fehlenden Partner-Typ passen könnten. Begründe für jede, warum sie passt. Nenne auch Namen von Gruppenleiter:innen, wenn möglich.
Funktioniert mit Claude, ChatGPT, Gemini
Beispiel-Ausgabe

Mitarbeiter:in

Antrag: Next-Generation Tandem Solar Cells, Deadline: 15.06.2026, Schwerpunkt: Perowskit, Stabilität, Skalierung. Bestätigte Partner: Universität Freiburg (Knudsen, Perowskit-Material). Gesucht: (1) Messinstitut / Zertifizierung, Europa (2) Perowskit-Expertise spanisch-sprachig (3) PV-Hersteller Industrie, Nordeuropa.

KI-Assistent

**Typ 1 – Messinstitut & Zertifizierung:** 1. NREL / Golden (USA): Strenggenommen nicht Europa, aber NREL ist der Standard für PV-Zertifizierung weltweit. Warum: Wenn der Call internationale Partner zulässt, ist NREL unverzichtbar für Glaubwürdigkeit. Kontakt: Name aus letztem Paper zu Tandem-Zertifizierung. 2. ISC Konstanz (Deutschland): Fraunhofer ISC ist spezialisiert auf Perowskit-Stabilität. Institut ist klein, aber die Messgeräte sind Goldstandard in Deutschland. Kontakt: Lena Schmidt oder Sebastian Beck. 3. Universidad Politécnica de Madrid (UPM): ISOM-Institut hat eine etablierte Messlabor für Perowskit. Nähe zu deinem span. Partner möglich. Kontakt: Search auf CORDIS nach UPM-Horizon-Projekten. **Typ 2 – Perowskit-Expertise Spanien:** 1. CSIC Instituto de Energías Renovables: Mateo López leitet eine große Gruppe zu Perowskit-Halbleiter-Wissenschaft. 25+ Publikationen 2024. Kontakt: LinkedIn oder ResearchGate. 2. Universitat Jaume I (Castelló): Gruppe leitet einen H2020-Abschluss mit Perowskit-Fokus. Warum relevant: Du kannst sehen, wer dort Key Personnel ist — diese Leute sind verfügbar für Phase-II. **Typ 3 – PV-Hersteller Nordeuropa:** 1. Meyer Burger (Schweiz): Ist in Tandem-Solarzellen ganz vorne. Schwäche: Industriekosten. Stärke: Sie haben ein Hands-on-Problem und suchen Academia-Partner. Kontakt: Business Development. 2. Oxford PV (UK): Privateers-backed, aber mit akademischen Roots. Sehr aktiv in Horizon-Proposals. Kontakt: Horizon-Manager. Nächster Schritt: Schreib eine Kurz-E-Mail an Meyer Burger und Oxford PV mit Antrag-Skizze. Nicht voll überzeugend — nur Interessensabfrage.

Quellen & Methodik

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar