Zum Inhalt springen
Branchenübergreifend vertriebausschreibungbid-management

KI-gestützte Ausschreibungsbearbeitung und Angebots-Erstellung

KI analysiert Ausschreibungsunterlagen, extrahiert Bewertungskriterien, prüft die eigene Eignung und generiert strukturierte Antwortvorlagen für öffentliche und private Ausschreibungen.

⚡ Auf einen Blick
Problem
Ausschreibungsbearbeitung bindet in produzierenden und Dienstleistungsunternehmen 20–60 Stunden je Ausschreibung — für Dokumentenanalyse, Eignungsprüfung, Angebotserstellung. Viele profitable Ausschreibungen werden gar nicht erst bearbeitet, weil der Aufwand zu hoch erscheint.
KI-Lösung
KI extrahiert aus Vergabeunterlagen die Schlüsselkriterien (Eignungsnachweis, technische Anforderungen, Bewertungsmatrix), gleicht sie gegen eigene Referenzen und Zertifikate ab, bewertet Go/No-Go und generiert strukturierte Antwortbausteine für Standardabschnitte.
Typischer Nutzen
Ausschreibungsbearbeitungszeit um rund 30 % reduzieren (Schätzwert aus Praxisberichten). Mehr Ausschreibungen sichten und selektiv bearbeiten. Qualität der Angebote verbessern durch vollständige Kriterienabdeckung.
Setup-Zeit
8–12 Wochen — Referenz-Datenbank muss strukturiert aufgebaut werden
Kosteneinschätzung
Weniger Ressourcen je Angebot → mehr Angebote bearbeiten bei gleichem Budget
Dokumentenanalyse-Workflow mit LLM und Referenz-Datenbank. Tools: Breeze AI (bid management), Loopio, RFPIO, oder Custom-GPT-Workflow mit Unternehmensreferenz-Datenbank.
Worum geht's?

Vertriebsleiter Markus Heinrich öffnet die Vergabeunterlagen, die seine Kollegin am Morgen vom Bundesamt heruntergeladen hat. 187 Seiten. Die Abgabefrist endet in elf Werktagen. Auf Seite 34 steht ein Eignungskriterium, das er schon dreimal gelesen hat — und immer noch nicht sicher ist, ob seine Firma es erfüllt: „Mindestens drei vergleichbare Referenzprojekte mit einem Auftragsvolumen von je über 250.000 Euro netto in den letzten fünf Jahren, davon mindestens eines bei einer Behörde der Bundesverwaltung.”

Bei einer Behörde der Bundesverwaltung. Sie hatten eines beim Land Bayern. Eines bei einer Stadtverwaltung in NRW. Aber Bund? Markus weiß es nicht. Sein Kollege Stefan, der das wissen müsste, ist im Urlaub.

Bevor er aufgibt, schiebt Markus aus reiner Frust die 187-seitige PDF in NotebookLM und tippt: „Was sind die fünf wichtigsten Eignungskriterien? Welche davon sind Muss, welche Soll? Welche Anlagen werden gefordert? Wie wird gewichtet?” Acht Minuten später hat er die Antwort: Die Bundesverwaltungs-Klausel ist eine Soll-Regelung, keine Muss-Anforderung. Er ist eignungsformell drin. Stefans Urlaub spielt keine Rolle mehr.

Was Markus für unmöglich gehalten hatte — eine 187-Seiten-Vergabeunterlage in zwei Stunden lesen — hatte er gerade in 8 Minuten erledigt. Der Auftrag, den er fast hätte sausen lassen, war 320.000 Euro wert. Die NotebookLM-Lizenz: 0 Euro.

Das echte Ausmaß des Problems

Öffentliche Ausschreibungen sind in Deutschland ein riesiger Markt: Bund, Länder und Kommunen vergeben jährlich Aufträge im dreistelligen Milliardenbereich. Trotzdem dominieren in vielen Branchen wenige große Anbieter — nicht weil sie die besten Leistungen bringen, sondern weil sie eine eigene Vertriebsabteilung mit drei Vollzeitmitarbeitenden für Ausschreibungen leisten können. Mittelständler können das oft nicht.

Die Zahlen, die das Bild prägen:

  • Über 600 Vergabeplattformen existieren in Deutschland nebeneinander — Bund, Länder, kommunale Anbieter, branchenspezifische Portale (Quelle: TendiGo). Wer alle relevanten Quellen manuell scannt, verbringt täglich Stunden.
  • Mehr als ein Drittel der Angebote werden allein wegen Formfehlern ausgeschlossen — fehlende Anlagen, falsche Formulare, verspätete Abgabe (Quelle: IHK Köln, zitiert über tender-service.de). Das bedeutet: Ein Drittel der investierten Bearbeitungszeit ist verloren, bevor inhaltlich überhaupt geprüft wird.
  • Eine durchschnittliche Ausschreibungs-Antwort dauert 25 Stunden Bearbeitungszeit, manche Branchen liegen bei 32+ Stunden je Angebot (Quelle: Loopio RFP Trends & Benchmarks Report 2026, gemeinsam mit der APMP, basierend auf 1.500+ Teams).
  • Teams mit dedizierter Ausschreibungs-Software bearbeiten im Schnitt 179 Angebote pro Jahr, ohne Software 145 (Quelle: Loopio 2026). Wer technisch hinterherhängt, sieht weniger Markt.

Was Mittelständler dabei oft unterschätzen: Die meiste Zeit fließt nicht in das Schreiben des Angebots. Sie fließt in das Lesen — Vergabeunterlagen mit 100 bis 300 Seiten, Bewertungsmatrizen, technische Anlagen, Eignungsfragebögen, AGB der Vergabestelle. Und dann in die Suche: „Welche Referenz passt? Welches Zertifikat haben wir? Wer im Team hat das schon mal gemacht?” Erst danach beginnt die eigentliche Angebotserstellung.

Das ist genau die Arbeit, die KI heute zuverlässig beschleunigen kann.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-gestützter Bearbeitung
Bieten/nicht-Bieten-Entscheidung je Ausschreibung1–3 Stunden Lesen5–15 Minuten ¹
Eignungsprüfung gegen eigenes Profilmanuell, fehleranfälligautomatisiert mit Lückenanzeige
Bearbeitungszeit je vollständigem Angebot25–60 Stunden ²12–25 Stunden ¹
Anzahl bearbeiteter Ausschreibungen pro Jahr145 (typisch ohne Software) ²179 (typisch mit Software) ²
Formfehler-bedingte Ausschlüsserund 1/3 aller Angebote ³deutlich reduziert durch Compliance-Check
Trefferquoten-Effektbranchenabhängigindirekt: mehr Selektion möglich, Antworten konsistenter

¹ Erfahrungswerte aus DACH-Angebots-Teams 2024–2025; keine repräsentative Studie, aber konsistent über mehrere Implementierungen.
² Loopio RFP Trends & Benchmarks Report 2026, gemeinsam mit APMP, 1.500+ Teams.
³ IHK Köln, zitiert über tender-service.de.

Der Hebel liegt nicht im Schreiben, sondern in der Selektion: Wer 60 statt 20 Ausschreibungen sichten kann, bietet auf die zehn besten — statt auf zehn zufällige. Das ist der Trefferquoten-Effekt, den Angebots-Software-Statistiken oft nicht direkt ausweisen, aber die Praxis durchgängig zeigt.

Einschätzung auf einen Blick

Zeitersparnis — sehr hoch (5/5) Eine fertige KI-Pipeline spart 10–35 Stunden je Ausschreibung. Bei 15–30 Ausschreibungen pro Jahr × 10–35 Stunden Einsparung sind das 150–1.050 Stunden/Jahr für die Angebots-Verantwortlichen — pro Vorgang der größte Hebel in der Kategorie „allgemein”, im reinen Jahresvolumen aber kleiner als bei Kundenkorrespondenz oder Berichterstellung, wo viele Mitarbeitende täglich mehrere Stunden gewinnen. Die 5 trägt hier wegen des außergewöhnlich großen Pro-Vorgang-Hebels: Wo eine Standard-Mail eine halbe Stunde dauert, bindet eine echte Ausschreibung ein bis zwei Personentage. Anders als bei der KI-gestützten Angebotsgestaltung, wo es um schnelle CPQ-Angebote für bekannte Kundenanfragen geht, geht es hier um den deutlich aufwendigeren Lese- und Compliance-Teil — genau dort wirkt KI am stärksten. Wer nur 5–10 Ausschreibungen pro Jahr bearbeitet, sollte die Bewertung in seinem Kontext eher als 4 lesen.

Kosteneinsparung — mittel (3/5)
Die Tools kosten je nach Lösung 50 €/Monat (DTAD als reiner Aggregator) bis 30.000–60.000 €/Jahr (Loopio, Responsive). Der Nutzen entsteht durch eingesparte Angebots-Verantwortlichen-Stunden — bei einem internen Stundensatz von 60–90 € und 25 Stunden Einsparung je Angebot rechnet sich das ab etwa 15 Angebote pro Jahr. Indirekte Trefferquoten-Effekte sind real, aber schwer isolierbar — deshalb keine 4. Die Rechnungsverarbeitung bleibt mit einer 5 in dieser Branche die klarere Kosten-Story.

Schnelle Umsetzung — mittel (3/5)
Bis zum produktiven Einsatz vergehen 8–12 Wochen, weil die Referenz-Datenbank strukturiert aufgebaut werden muss: Welche Projekte habt ihr gemacht? Welche Zertifikate liegen vor? Welche Standardantworten zu Sicherheit, DSGVO, Qualität existieren? Ohne diese Basis halluziniert das System fröhlich Antworten — das ist der häufigste Frühausfall (siehe Einstiegsfehler). Schneller als Predictive Analytics, aber deutlich aufwendiger als Meeting-Protokolle.

ROI-Sicherheit — niedrig (2/5)
Die Zeitersparnis ist messbar — du kannst die Stunden je Angebot vor und nach Einführung tracken. Der eigentliche Geschäftseffekt — mehr gewonnene Aufträge — ist es nicht: Die Trefferquoten-Verbesserung durch das Tool lässt sich in der Praxis nicht isolieren, weil parallel Marktlage, Bewerberlage, Preis und Beziehungen wirken. Loopio berichtet 2026 eine durchschnittliche Trefferquote von 45 % branchenübergreifend — aber dein konkreter Wert kann zwischen 15 und 70 % schwanken, ohne dass du sauber zuordnen kannst, welcher Anteil aus dem KI-Setup kommt. Anders als bei der Rechnungsverarbeitung, wo Skonto-Gewinne pro Rechnung direkt buchbar sind, bleibt der Angebots-ROI auf die Zeitkomponente beschränkt — und das ist die ehrliche untere Schranke, mehr nicht.

Skalierbarkeit — mittel (3/5)
Jede neue Ausschreibung profitiert sofort von der vorhandenen Antwortbibliothek. Aber: Die Bibliothek altert. Referenzen müssen aktualisiert, Zertifikatslaufzeiten überprüft, neue Produkte und Leistungen eingepflegt werden. Anders als bei einer Wissensdatenbank (4/5), wo selbst veraltetes Wissen oft noch wertvoll ist, ist im Ausschreibungskontext eine veraltete Antwort gefährlich — ein abgelaufenes ISO-Zertifikat, das in eine Antwort kopiert wird, kann zum Ausschluss führen. Pflege ist Pflicht, nicht Kür.

Richtwerte — stark abhängig von Branche, Auftragsvolumen und Reife der internen Dokumentation.

Was eine KI-gestützte Angebots-Pipeline konkret macht

Eine produktive Lösung kombiniert mehrere Bausteine — keine Plattform deckt alles in gleicher Tiefe ab.

1. Treffer-Aggregation aus Vergabeplattformen. Tools wie Bidfix, TendiGo oder DTAD sammeln täglich Bekanntmachungen aus TED, eVergabe-Online des Bundes, kommunalen Plattformen und über 600 weiteren Quellen. Du definierst CPV-Codes, Regionen und Auftragsvolumen — die relevanten Treffer landen vorgefiltert in deinem Postfach.

2. Dokumentenanalyse und Bewertungsmatrix-Extraktion. Ein LLM liest die Vergabeunterlagen und extrahiert die Eignungskriterien, technischen Anforderungen, Bewertungsmatrix und Fristen. Das, wofür ein Mensch zwei Stunden braucht, dauert mit einem gut konfigurierten System fünf bis fünfzehn Minuten — und ist fehlerärmer, weil das System nicht überfliegt.

3. Eignungsabgleich gegen das eigene Profil. Die KI vergleicht die geforderten Eignungskriterien mit deinem hinterlegten Unternehmensprofil: Umsatz, Mitarbeiterzahl, Zertifikate (ISO 9001, ISO 27001, Branchenzulassungen), Referenzprojekte. Ergebnis: eine Bieten/nicht-Bieten-Empfehlung mit konkreter Lückenliste — „du erfüllst 7 von 9 Kriterien; Lücke bei Bundesreferenz, Lücke bei BSI-Grundschutz-Auditor”.

4. Antwortgenerierung aus der Bibliothek. Standardabschnitte (Unternehmensvorstellung, Sicherheitskonzept, Datenschutzerklärung, Qualitätsmanagement, Referenzen) werden aus einer kuratierten Antwortbibliothek vorbefüllt — per Retrieval-Augmented Generation (RAG), nicht per generischem Prompt. Angebots-Verantwortliche/r prüfen, passen an, ergänzen die wirklich projektspezifischen Teile.

5. Compliance-Check vor Abgabe. Eine Quality-Check-Logik prüft: Sind alle geforderten Anlagen verlinkt? Sind die Pflichtformulare ausgefüllt? Steht jedes geforderte Bewertungskriterium im Angebot? Das ist genau der Punkt, an dem laut IHK Köln ein Drittel der Angebote scheitert — und der Punkt, den eine maschinelle Prüfung am zuverlässigsten abdeckt.

Was wirklich entscheidend ist

Der wichtigste Baustein dieser Pipeline ist nicht das LLM — es ist die Antwortbibliothek. Wenn deine Bibliothek aus 200 sauber strukturierten Antwortbausteinen mit Quellen, Verantwortlichen und Verfallsdaten besteht, liefert ein einfaches RAG-Setup hervorragende Ergebnisse. Wenn deine Bibliothek aus 1.000 PDF-Angeboten der letzten Jahre besteht, die niemand sauber kuratiert hat, wird auch das beste Tool inkonsistent antworten.

Das ist der Grund, warum die Einführung 8–12 Wochen statt einer Woche braucht.

Bieten/nicht-Bieten: Wo der größte Hebel sitzt

In den meisten Mittelstands-Vertriebsorganisationen ist die Bieten/nicht-Bieten-Entscheidung kein dokumentierter Prozess, sondern ein Bauchgefühl. Drei Personen schauen sich nacheinander die Unterlagen an, eine entscheidet. Ergebnis: Es wird auf Ausschreibungen geboten, bei denen die Eignung eigentlich nicht passt — und es wird auf Ausschreibungen verzichtet, bei denen sie passt.

Eine KI-gestützte Bieten/nicht-Bieten-Logik macht aus dem Bauchgefühl eine reproduzierbare Entscheidung in unter 15 Minuten. Was sie konkret prüft:

  • Harte Eignungskriterien: Umsatzgrenzen, Mitarbeiterzahl, geforderte Zertifikate, geforderte Referenzen — Match oder Lücke?
  • Wirtschaftlichkeit: Auftragsvolumen vs. erwarteter Bearbeitungsaufwand — lohnt sich das Angebot bei realistischer Trefferquote?
  • Strategischer Fit: Passt die Branche zu eurer Positionierung? Habt ihr in diesem Segment schon gewonnen?
  • Risiken: Vertragslaufzeit, Pönalen, ungewöhnliche Klauseln (z. B. Übernahme von Personal des Vorgängers)?

Das Ergebnis ist nicht „bieten ja/nein” — es ist eine Empfehlung mit Begründung. Die finale Entscheidung trifft ein Mensch. Aber statt 1–3 Stunden Lesen entscheidet das Team auf Basis einer strukturierten Vorlage.

Bidfix wirbt damit, Bieten/nicht-Bieten-Entscheidungen 90 % schneller zu machen. Das deckt sich mit dem, was praxistauglich umsetzbar ist — vorausgesetzt, das Unternehmensprofil ist sauber gepflegt.

Rechtliche Besonderheiten: Vergaberecht beachten

Anders als bei privaten Ausschreibungen gilt im öffentlichen Sektor strenges Vergaberecht — und die KI-Bearbeitung ändert daran nichts. Drei Punkte, die du wissen musst:

EU-Schwellenwerte (Stand 2024–2025). Oberhalb bestimmter Auftragswerte greift europäisches Vergaberecht (GWB, VgV) mit verpflichtender EU-weiter Bekanntmachung über TED. Für Liefer- und Dienstleistungsaufträge liegt die Schwelle bei 221.000 € netto, bei Sektorenauftraggebern und Verteidigung bei 443.000 €, bei Bauleistungen bei 5.538.000 € (Quelle: bundesamtsozialesicherung.de, EU-Schwellenwerte 2024–2025). Unterhalb gilt nationales Haushaltsrecht (UVgO, VOB/A Abschnitt 1) — andere Formanforderungen, oft kürzere Fristen.

Formstrenge. Wer fehlende Pflichtanlagen einreicht, wird in der Regel ohne Nachforderung ausgeschlossen. Eine KI darf hier nicht „kreativ ergänzen” — sie muss exakt die geforderten Formulare in der geforderten Reihenfolge mit den geforderten Inhalten produzieren. Halluzinierte Angaben sind im Vergaberecht nicht nur peinlich, sondern haftungsrelevant: Falsche Eigenerklärungen können zum Ausschluss aus zukünftigen Verfahren führen.

Eignungserklärungen. Du erklärst formal, dass du bestimmte Eigenschaften erfüllst (Steuerredlichkeit, Zertifikate, Referenzen). Diese Erklärungen sind rechtsverbindlich. Eine KI-generierte Antwort, die ein nicht vorhandenes Zertifikat erwähnt, ist eine falsche Eigenerklärung — mit allen Konsequenzen. Falsche Eigenerklärungen können zum Ausschluss von einer öffentlichen Auftragsvergabe für bis zu drei Jahre führen (§ 124 Abs. 1 Nr. 8 GWB) und im Einzelfall straf- und zivilrechtliche Folgen haben (z. B. § 264 StGB Subventionsbetrug bei öffentlichen Aufträgen). Deshalb muss jede KI-erzeugte Eignungs-Antwort von einem Menschen mit Prüfauftrag freigegeben werden, nicht nur stichprobenartig.

Eine technische Hilfe ist die XVergabe-Schnittstelle: ein nationaler Standard, mit dem Bietersoftware plattformübergreifend mit Vergabeplattformen kommunizieren kann. Wer eine eigene Workflow-Lösung baut, sollte XVergabe-Kompatibilität von Anfang an mitdenken — sonst pflegst du Anmeldedaten für 30 Plattformen einzeln.

Konkrete Werkzeuge — was wann passt

Es gibt drei sehr unterschiedliche Werkzeugkategorien — sie schließen sich nicht aus, sondern ergänzen sich.

Bidfix — für Innovationsfreudige mit Schwerpunkt Eignungsprüfung und Angebotsassistenz. DACH-spezialisierte KI-Plattform für öffentliche Ausschreibungen. Aggregiert Treffer aus 100+ deutschsprachigen Vergabeplattformen, aggressiver KI-Schwerpunkt: Eignungs-Matching gegen das eigene Profil und Angebotsassistenz für Standardabschnitte. Basis-Recherche kostenlos, bezahlte Tarife für KI-Funktionen auf Anfrage. Junges Produkt, kleinere Nutzerbasis als die US-Plattformen — bevorzugt für Teams, die KI-Funktionen aktiv mitprägen wollen.

TendiGo — für Angebots-Teams, die intern schreiben und nur die Vorfilterung wollen. Sehr breite Quellenabdeckung (800+ Plattformen national und EU-weit), automatische Eignungsprüfung, deutscher Anbieter mit EU-Hosting. Schwerpunkt liegt klar auf Recherche, Vorfilterung und Analyse — die eigentliche Angebotserstellung bleibt euer Job. Preis auf Anfrage, typisch im niedrigen dreistelligen Bereich pro Monat. Bevorzugt, wenn ihr breite Quellenabdeckung braucht und das Schreiben ohnehin im Haus stattfindet.

DTAD — Etablierter deutscher Auftragsdienst mit über 20 Jahren Marktpräsenz. Klassischer Aggregator-Ansatz mit täglichen E-Mail-Alerts, weniger ausgeprägte KI-Funktionen als Bidfix oder TendiGo. Sinnvoll, wenn ihr nur die Trefferquelle braucht und die Bewertung intern macht. Pricing ebenfalls auf Anfrage.

Loopio — für breiten B2B-SaaS-Vertrieb mit Salesforce-Anbindung. Marktführer für Ausschreibungs-Antwortmanagement im englischsprachigen Raum, seit 2014 etabliert. KI-Aufsatz für Erstantworten, kollaborative Workflows mit Fachexpert/innen, Salesforce-Native — niedrigere Einstiegshürde, breit anwendbar. Pricing typisch ab 15.000 USD/Jahr, ca. 1.440 USD pro Nutzer/Jahr. Bevorzugt, wenn euer Vertrieb breit aufgestellt ist und Salesforce ohnehin das Rückgrat bildet.

Responsive — für Sicherheits-/Compliance-getriebene Branchen. Vormals RFPIO. Ähnliches Marktsegment wie Loopio, aber deutlich tiefer bei Sicherheitsfragebögen (CAIQ, SIG, DDQs) — typisches Werkzeug der IT-Security-Schwergewichte. KI-Agenten für Shredding, Drafting, Fachexpert/innen-Routing und TRACE-Score-Governance. Pricing typisch 25.000–80.000 USD/Jahr, US-Hosting — DSGVO erfordert sorgfältige AVV-Konfiguration. Bevorzugt, wenn ihr regelmäßig CAIQ/SIG-Fragebögen beantwortet und höheren Preis gegen höhere Tiefe akzeptiert.

Custom-RAG mit Microsoft 365 Copilot, Claude oder ChatGPT Enterprise — Wenn ihr in M365 lebt, kann Copilot die Antwortbibliothek aus SharePoint und Teams direkt durchsuchen. Für mehr Kontrolle und Quellengenauigkeit baut ihr ein eigenes RAG-System auf Basis eurer Referenzdatenbank, mit Claude oder GPT-4 als Antwortmodell. Vorteil: voll auf eure Bibliothek zugeschnitten, voll kontrollierbar. Nachteil: Entwicklungsaufwand, kein vorgefertigtes Bieten/nicht-Bieten-Modul.

NotebookLM — Kostenlos zum Ausprobieren des Konzepts. Lade eine echte Vergabeunterlage hoch, frage „Was sind die 5 wichtigsten Eignungskriterien?”, „Welche Anlagen werden gefordert?”. In 15 Minuten weißt du, ob das Prinzip in deinem Kontext trägt. Nicht produktiv tauglich (US-Hosting, keine API, keine Bibliothek), aber als Sandbox unschlagbar.

Wann welcher Ansatz

  • Schwerpunkt deutsche/österreichische öffentliche Ausschreibungen → Bidfix oder TendiGo
  • Reine Trefferquelle, KI-Bewertung intern → DTAD
  • Internationale B2B-SaaS-Ausschreibungen, dediziertes Angebots-Team → Loopio oder Responsive
  • M365-Welt mit guter SharePoint-Hygiene → Microsoft 365 Copilot als Erstansatz
  • Maximale Kontrolle, eigene Pipeline → Custom-RAG mit Claude oder ChatGPT
  • Erstes Konzept-Testing → NotebookLM

Vorsicht vor Abo-Spam und Schein-KI

Der Markt für Ausschreibungsdienste ist seit Jahrzehnten ein Spam-Magnet — und die KI-Welle hat nicht alle Anbieter besser gemacht, sondern teilweise nur die Versprechen lauter. Ein paar Warnsignale, die du im Sales-Gespräch ernst nehmen solltest:

  • Lange Mindestlaufzeiten ohne Probemonat. 24 Monate ohne Ausstiegsoption sind im Software-Markt 2026 nicht mehr zeitgemäß. Wer das fordert, weiß, dass Kunden nach 6 Monaten häufig kündigen würden.
  • „KI-Eignungsprüfung” ohne erklärbare Logik. Wenn der Anbieter nicht erklärt, wie die Eignung geprüft wird (welche Kriterien, welche Datenquelle für eure Referenzen), dann ist es vermutlich keine echte Prüfung, sondern ein farbiger Score ohne Substanz. Bitte um eine Live-Vorführung mit einem konkreten Verfahren aus deiner Branche.
  • Kein transparenter Datenexport. Was passiert, wenn du wechseln willst? Kommt die mühsam aufgebaute Antwortbibliothek als CSV/JSON heraus? Wenn nicht: Anbieter-Bindung.
  • „DSGVO-konform” ohne EU-Hosting-Nachweis. DSGVO-Konformität ist nicht durch ein Logo nachgewiesen. Frag nach AVV, EU-Datenresidenz, Subprozessoren-Liste. Bei US-Tools (Loopio, Responsive) ist das machbar, aber nicht trivial.

Und: Eine echte unabhängige Bewertung der Plattformen ist die DtGV-Vergleichstest-Reihe — DTAD bekommt dort ein „solides Mittelfeld”, was als Realitätscheck nützlich ist (Quelle: DtGV, Test von Portalen für öffentliche Ausschreibungen). Eine fünf-Sterne-Bewertung in jedem zweiten Vergleichsportal sollte misstrauisch machen.

Datenschutz und Datenhaltung

Vergabeunterlagen enthalten oft personenbezogene Daten (Schlüsselpersonen mit Lebensläufen, Referenzkunden), Geschäftsgeheimnisse (Kalkulationen, Margen) und sensible Vertragsbeziehungen. Sobald ihr ein KI-System darauf ansetzt, gilt die DSGVO — und für Eignungserklärungen zusätzlich öffentliches Vergaberecht.

Was konkret zu klären ist:

  • Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO mit jedem genutzten Anbieter. Bei Loopio und Responsive (US-Hosting) ist die AVV-Prüfung anspruchsvoller — Standardvertragsklauseln, ggf. Transfer Impact Assessment.
  • EU-Datenresidenz, wenn personenbezogene Daten verarbeitet werden. Bidfix, TendiGo und DTAD hosten in der EU bzw. Deutschland — das macht die DSGVO-Argumentation deutlich einfacher. Microsoft 365 Copilot lässt sich über das EU Data Boundary Programm konfigurieren.
  • Sensible Kalkulationen nicht in Cloud-LLMs. Wenn dein Angebot eine wettbewerbskritische Kalkulation enthält, gehört die nicht ungeschützt in den Standard-ChatGPT-Workspace. Custom-RAG mit eigener Infrastruktur, oder mindestens Enterprise-Tarife mit garantiertem Trainings-Opt-out.
  • Vertraulichkeitserklärungen der Vergabestelle. Manche Vergabestellen verbieten ausdrücklich die Weitergabe von Vergabeunterlagen an Dritte — das schließt im Zweifel auch das Hochladen in Drittanbieter-LLMs ein. Bei sicherheitsrelevanten Verfahren (BSI, Verteidigung) ist das nicht verhandelbar.

Praktisch heißt das: Die KI-Bearbeitung ist juristisch unkomplizierter, wenn sie auf eurer eigenen Infrastruktur läuft (Custom-RAG, M365 Copilot mit EU Data Boundary) und problematischer, wenn die Unterlagen in US-Clouds wandern. Diesen Punkt mit dem Datenschutzbeauftragten und gegebenenfalls einem Vergaberechtler klären — bevor das System produktiv geht.

Was es kostet — realistisch gerechnet

Einmalige Einrichtungskosten

  • Aufbau der Antwortbibliothek (Referenzen, Standardantworten, Zertifikate strukturiert ablegen): 4–8 Wochen interner Aufwand, je nach Reife der Dokumentation
  • Externe Begleitung (Berater, Angebots-Coach): 5.000–15.000 € im Mittelstand üblich
  • Bei Custom-RAG-Aufbau zusätzlich Entwicklungsaufwand: 8.000–25.000 €

Laufende Kosten (monatlich)

  • Bidfix Basis: kostenlos für Recherche; bezahlte KI-Tarife auf Anfrage
  • TendiGo: typisch 100–300 €/Monat je nach Quellenpaket und Nutzeranzahl
  • DTAD: typisch 50–200 €/Monat je nach Konfiguration
  • Microsoft 365 Copilot: ca. 30 €/Person/Monat zusätzlich zur M365-Lizenz
  • Loopio: ab ca. 15.000 USD/Jahr, ca. 120 USD pro Nutzer/Monat
  • Responsive: typisch 25.000–80.000 USD/Jahr, auf Anfrage
  • Custom-RAG: 200–800 €/Monat Infrastruktur + LLM-API-Kosten

Wie du den Nutzen tatsächlich misst
Drei Kennzahlen, die du wirklich tracken kannst:

  1. Bearbeitungsstunden je Angebot — vor und nach Einführung. Saubere Erhebung über 6 Monate; das ist die einzige direkt buchbare Einsparung.
  2. Anzahl bearbeiteter Ausschreibungen pro Quartal — wenn ihr von 20 auf 35 Angebote skaliert, ist das ein direkter Marktanteils-Hebel, auch ohne Trefferquoten-Verbesserung.
  3. Bieten/nicht-Bieten-Trefferquote — wie oft führt ein „bieten” zu engerer Auswahl, wie oft zu Ausschluss? Wenn die KI-Selektion gute Angebote identifiziert, sollte die Trefferquote steigen.

Was du nicht isolieren kannst: die genaue Trefferquoten-Verbesserung durch das Tool — zu viele andere Faktoren (Marktlage, Preis, Beziehungen) wirken parallel.

Konservatives Rechenbeispiel Ein Mittelständler mit 30 Ausschreibungen pro Jahr, durchschnittlich 30 Stunden Bearbeitungszeit, Stundensatz 70 €: Das sind 63.000 € jährlicher Bearbeitungsaufwand. Bei konservativ angesetzter 30 % Einsparung über die KI-Pipeline: rund 19.000 € freigesetzte Angebots-Verantwortlichen-Zeit. Hinweis zur Konservativität: Die Vergleichstabelle oben weist 25 statt 60 Stunden je Angebot aus — das wären rechnerisch 50–58 % Einsparung, aber nur unter Idealbedingungen mit ausgereifter Bibliothek. Die 30 % spiegeln den ersten Effekt wider, bevor das System sich eingespielt hat. Bei TendiGo + Custom-RAG-Setup mit Gesamtkosten von 12.000 €/Jahr (Lizenz + Infrastruktur) ergibt sich ein direkter Netto-Nutzen — bevor irgendein zusätzlicher Auftrag durch bessere Selektion gewonnen wird. Wer auf 50 Angebote skaliert, vervielfacht den Effekt.

Interaktiver Rechner

Lohnt sich eine KI-Ausschreibungs-Pipeline für euch?

Gib deine Kennzahlen ein — du bekommst eine personalisierte Einsparpotenzial-Rechnung und eine Tool-Empfehlung.

Wie viele Angebote bearbeitet ihr aktuell?

Lesen, Eignungsprüfung, Schreiben — alles zusammen

Vollkosten der Angebots-Verantwortlichen inkl. Nebenkosten

Geschätzte Lizenz- oder Infrastrukturkosten

Konservativ: 20–30 % im ersten Jahr (Bibliothek noch im Aufbau). Realistisches Optimum: 40–50 % nach 12 Monaten.

10 % (konservativ)55 % (Idealfall)

Typische Einstiegsfehler

1. Mit dem Tool anfangen, nicht mit der Bibliothek.
Der Reflex: Loopio kaufen, einrichten, loslegen. Realität: Ohne strukturierte Antwortbibliothek liefert auch das beste Tool generische Antworten — und die Angebots-Verantwortliche/r schreiben weiter alles selbst. Lösung: Vor dem Tool-Kauf 4–6 Wochen in das Strukturieren der vorhandenen Antworten und Referenzen investieren. Welche 50 Standardfragen kommen in jeder Ausschreibung? Welche Antworten gibt es dafür schon, in welcher Qualität?

2. Halluzinierte Eignungserklärungen nicht erkennen.
Das ist der gefährlichste Fehler. Ein LLM, das nicht sicher ist, ob ihr ISO 27001 zertifiziert seid, schreibt einfach „ja, ISO 27001 zertifiziert seit 2021” — weil das die wahrscheinlichste Antwort ist. Wenn das in einer rechtsverbindlichen Eignungserklärung landet, ist das eine falsche Versicherung an Eides statt. Lösung: Eignungserklärungen werden nie allein vom System generiert. Sie kommen aus einer geprüften, mit Verfallsdaten versehenen Zertifikate-Liste. Jede KI-Antwort, die sich auf Eignung bezieht, durchläuft einen Pflicht-Review durch einen Menschen mit Prüfauftrag.

3. Spam-Anbieter mit langer Laufzeit.
Wer einen 24-Monats-Vertrag bei einem Anbieter unterschreibt, ohne ihn vorher 4 Wochen mit echten Verfahren getestet zu haben, kauft in den meisten Fällen Vorhersehbares: Das Tool passt nicht zur Branche, die Trefferqualität ist schwach, der Support reagiert träge. Lösung: Probemonat oder Probequartal verlangen, in dieser Zeit drei reale Ausschreibungen vollständig durchspielen. Wenn ein Anbieter darauf nicht eingeht, weißt du genug.

4. Bibliothek wird eingerichtet, dann nicht gepflegt.
Das ist der stille Fehler. Im ersten halben Jahr ist alles aktuell. Nach 18 Monaten enthalten 30 % der Antwortbausteine veraltete Zertifikatsangaben, abgelaufene Referenzen, überholte Produktbeschreibungen. Die KI nutzt diese trotzdem — selbstbewusst und mit Quellenangabe.

Die Lösung ist organisatorisch, nicht technisch. Jede Antwortkategorie braucht einen namentlichen Besitzer mit dokumentierter Review-Frequenz: Zertifikate halbjährlich (vor Ablauf), Referenzen jährlich, Produktbeschreibungen bei Produktänderung, Sicherheitskonzept jährlich. Tools wie Loopio bieten dafür Verfallsdaten je Antwort — aber das Prinzip funktioniert auch in einer einfachen Excel-Tabelle, solange jemand sie wirklich pflegt.

Was mit der Einführung wirklich passiert — und was nicht

Die Pipeline einzuführen ist technisch handhabbar. Schwieriger ist, was sich in der Vertriebsorganisation verändert.

Die erfahrenen Angebots-Verantwortliche/r. Sie haben über Jahre Bauchgefühl entwickelt, welche Ausschreibungen lohnen und welche nicht. Ein KI-System, das in 15 Minuten zur Bieten/nicht-Bieten-Empfehlung kommt, fühlt sich an, als würde es ihre Erfahrung entwerten. Wichtig: Das System ersetzt sie nicht — es entlastet sie vom 187-Seiten-Lesen, damit sie sich auf die wirklich strategischen Entscheidungen konzentrieren können. Konkret hilft, sie aktiv in den Bibliotheksaufbau und die Qualitätssicherung der KI-Empfehlungen einzubinden. Wer das System mitkonfiguriert hat, vertraut ihm eher.

Die Excel-Workaround-Fraktion. In jedem Mittelstand gibt es eine Person, die seit acht Jahren eine private Excel-Tabelle mit allen Referenzen führt — manchmal aktueller als die offizielle. Wenn das System ohne diesen Datenstand startet, sind die ersten Antworten schwächer als der bisherige Workaround. Effekt: Die Person nutzt weiter ihre Excel, das System wird abgehängt. Lösung: Diese Schattendokumente vor dem Launch identifizieren und in die Bibliothek migrieren. Hier ist die Verbindung zur Excel-Schattenprozess-Erkennung im selben Branche-Kanon — die Probleme sind verwandt.

Die Vergaberechts-Skeptiker. Geschäftsführung oder Datenschutzbeauftragter haben oft ernstzunehmende Bedenken: Was, wenn die KI eine falsche Eigenerklärung generiert? Was, wenn die Vergabeunterlagen in eine US-Cloud wandern? Diese Bedenken sind nicht abzuwiegeln — sie zeigen, dass die Hausaufgaben gemacht werden müssen. Eine kurze Pilotphase mit klaren Review-Pflichten, dokumentierter AVV und ausgewählten Verfahren (keine sicherheitskritischen) baut Vertrauen schneller auf als jede Sicherheitsfolie.

Was konkret hilft:

  • Vor dem Rollout 5–10 echte alte Ausschreibungen retrospektiv durch das System laufen lassen — der erste Datensatz für die Kalibrierung
  • Angebots-Verantwortliche als Multiplikator/innen einbinden, nicht überraschen
  • Pflicht-Review für Eignungserklärungen organisatorisch festschreiben (Vier-Augen-Prinzip)
  • 90-Tage-Evaluation kommunizieren, in der Quote und Qualität gemessen werden, bevor Urteile gefällt werden
  • Schattendokumente aktiv suchen und integrieren

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Bestandsaufnahme & Bibliotheks-InventurWoche 1–2Vorhandene Referenzen, Zertifikate, Standardantworten sichten und strukturierenAntworten in Schattendokumenten verstreut — vor Migration nicht alle gefunden
Toolauswahl & DatenschutzprüfungWoche 2–4Demos, Probezugänge, AVV-Prüfung, ggf. Vergleich mit Vergaberechtler„DSGVO-konform”-Marketing ohne harte Belege akzeptiert
Bibliotheksaufbau & ProfilkonfigurationWoche 3–8 (Überlappung bewusst)Antworten kuratieren, Eignungsprofil hinterlegen, Review-Verantwortlichkeiten festlegenZu viel auf einmal, Pflege-Workflow nicht definiert
Pilotbetrieb mit echten VerfahrenWoche 8–103–5 reale Ausschreibungen vollständig durchspielen, Lücken identifizierenKI halluziniert in Eignungserklärungen — Pflicht-Review wird nicht gelebt
Rollout & Review-RoutinenWoche 10–12Schrittweise Einführung im Angebots-Team, Verfallsdaten-Mechanik aktivierenNach 6 Monaten Pflege vergessen → schleichende Qualitätserosion

Wichtig: Plant ab Woche 12 fest 1–2 Stunden pro Woche für die Bibliothekspflege ein — nicht „bei Gelegenheit”, sondern als feste Routine bei einer benannten Person. Das ist der Unterschied zwischen einem System, das nach 18 Monaten besser wird, und einem, das schleichend halluziniert.

Häufige Einwände — und was dahintersteckt

„Wir bieten kaum auf öffentliche Ausschreibungen — lohnt sich das?”
Wenn ihr unter 5–10 Ausschreibungen pro Jahr habt, lohnt sich keine spezialisierte Plattform. Aber: Ein Custom-RAG-Setup auf eurer eigenen M365-Infrastruktur kann auch bei 3–5 Angeboten pro Jahr Sinn ergeben — weil die Lese- und Compliance-Zeit auch dann der größte Aufwand ist. Die Frage ist nicht „wie viele Angebote” — sondern „wie viele Stunden bindet ein Angebot heute”. Wenn ein einzelnes Angebot 50 Stunden bindet, lohnt sich Effizienzaufwand auch bei niedrigem Volumen.

„KI darf doch keine rechtsverbindlichen Erklärungen abgeben.”
Stimmt — und macht sie auch nicht. Die Eignungserklärung wird vom Menschen unterschrieben und freigegeben. Die KI ist Vorbereiter und Lückenanzeiger, nicht Entscheider. Das saubere Setup definiert genau diesen Übergabepunkt: Welche Inhalte erzeugt die KI? Welche müssen zwingend menschlich validiert werden? Wer unterschreibt am Ende? Wenn diese Prozesskette steht, ist die KI-Bearbeitung rechtlich genauso sauber wie eine manuelle.

„Wir haben unsere Antworten in Word-Dokumenten — keine Bibliothek.”
Das ist der Normalfall, nicht die Ausnahme. Eine Antwortbibliothek baut man aus genau diesen Word-Dokumenten auf — aber strukturiert: Frage, Antwort, Quelle, Verantwortlicher, Verfallsdatum. Der Aufwand für 50–80 Standardantworten liegt bei 4–6 Wochen einer Person mit Angebots-Hintergrund. Das ist die Investition, die dann jahrelang Erträge bringt — auch unabhängig von KI.

„Was ist mit halluzinierten Antworten? Wie sicher ist das?”
Eine reine LLM-Lösung ohne Quellenanbindung halluziniert regelmäßig — und Studien zeigen, dass das in Ausschreibungen der Hauptrisikofaktor ist (Quelle: Lohfeld Consulting, „How to Overcome Four AI Risks in Proposal Writing”; Iris AI, „Preventing AI Hallucinations”). Eine richtig konfigurierte RAG-Pipeline reduziert das Risiko deutlich, eliminiert es aber nicht. Deshalb gilt: Quellenangabe ist Pflicht, Pflicht-Review für Eignungsteile ist Pflicht, kein blindes Copy-Paste ins Angebot. Wer diese drei Regeln einhält, hat ein robustes System.

Woran du merkst, dass das zu dir passt

  • Ihr bearbeitet 15+ Ausschreibungen pro Jahr und der Angebots-Verantwortliche/r-Aufwand ist messbar zur Belastung geworden
  • Eure Vertriebspipeline hat in den letzten 12 Monaten Aufträge verloren, bei denen ihr eigentlich passend gewesen wärt — meist mit „kein Personal frei für Angebots-Bearbeitung” als Begründung
  • Standardantworten zu Sicherheit, DSGVO, Qualität und Referenzen werden in jedem Angebot neu zusammengesucht statt aus einer Bibliothek gezogen
  • Ihr habt mindestens eine Person, die operativ Angebots-Bearbeitung macht — nicht „mal eben nebenbei” durch die Geschäftsführung
  • Ihr betretet einen neuen öffentlichen Markt (Bund, EU-Verfahren, neue Branche) und die Bewerbungslogik ist dort komplexer als bisher gewohnt

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Weniger als 5–10 Ausschreibungen pro Jahr und keine zentrale Antwortbasis. Der Einrichtungs- und Pflegeaufwand übersteigt den Nutzen. Investiere die Zeit lieber in das saubere Strukturieren eurer Standardantworten in Word/SharePoint — das ist der Vorbau, den eine KI-Lösung später ohnehin braucht. Eine Plattform-Lizenz ist hier verschwendet.

  2. Kein dokumentiertes Eignungsprofil und keine namentliche Verantwortung für die Antwortbibliothek. Wenn niemand benannt ist, der die Bibliothek pflegt — Zertifikate, Referenzen, Standardtexte — wird das System nach 12–18 Monaten zur Halluzinationsfalle. Lieber gar nicht starten als ein System, das selbstbewusst veraltete Eigenerklärungen produziert. Das ist nicht nur peinlich, sondern vergaberechtlich riskant.

  3. Sicherheitskritische Verfahren ohne IT-Compliance-Klärung. Bei Ausschreibungen für Verteidigung, BSI-Grundschutz oder kritische Infrastruktur ist das Hochladen der Vergabeunterlagen in beliebige Cloud-LLMs teilweise vertraglich verboten. Wenn euer Schwerpunkt in diesem Segment liegt, klärt zuerst die IT-Sicherheits- und Datenschutzanforderungen — sonst riskiert ihr ein Tool, das ihr für genau die wichtigsten Verfahren nicht nutzen dürft.

Das kannst du heute noch tun

Nimm eine Vergabeunterlage aus einem Verfahren, an dem ihr im letzten Jahr teilgenommen oder das ihr sausen lassen habt — eine PDF mit 50–200 Seiten. Lade sie in NotebookLM (kostenlos, Google-Konto reicht). Stelle die fünf Fragen, die du vor jedem Angebot beantwortet haben willst:

  1. Was sind die fünf wichtigsten Eignungskriterien?
  2. Welche Pflichtanlagen werden gefordert?
  3. Wann ist die Abgabefrist?
  4. Wie ist die Bewertungsmatrix gewichtet?
  5. Welche Referenzen werden gefordert?

Du bekommst in 10 Minuten eine Antwort, für die jemand 1–2 Stunden gelesen hätte. Das ist kein produktiver Workflow — aber es zeigt dir, ob das Prinzip in deiner Welt trägt, bevor du Geld in eine Plattform steckst.

Für den produktiven Einsatz brauchst du einen System-Prompt, der die Eigenheiten deutscher Vergaberechts-Verfahren versteht. Hier ist eine Vorlage, die du als Basis nutzen kannst:

Bieten/nicht-Bieten-Analyse für Vergabeunterlagen
Du bist KI-Assistent für die Ausschreibungsbearbeitung von [FIRMENNAME]. Deine Aufgabe: Analysiere die hochgeladenen Vergabeunterlagen und unterstütze die Bieten/nicht-Bieten-Entscheidung sowie die Angebotserstellung. Beantworte ausschließlich auf Basis der bereitgestellten Vergabeunterlagen UND des hinterlegten Unternehmensprofils. Wenn eine Information nicht in den Unterlagen steht, antworte exakt: "Nicht in den Vergabeunterlagen enthalten — bitte bei der Vergabestelle nachfragen." Wenn ein Eignungskriterium nicht eindeutig im Unternehmensprofil belegt ist, antworte: "Eignung nicht eindeutig belegt — bitte intern klären, Quelle für Beleg suchen." Erfinde NIEMALS Zertifikate, Referenzen, Umsatzzahlen oder Mitarbeiterzahlen. Bei Eignungserklärungen gilt: Im Zweifel keine Aussage. Strukturiere deine Antwort wie folgt: 1. Zusammenfassung des Verfahrens (Auftraggeber, Volumen, Frist, Verfahrensart) 2. Eignungskriterien — mit Match/Lücke pro Kriterium gegen das Unternehmensprofil 3. Bewertungsmatrix mit Gewichtung 4. Pflichtanlagen-Liste 5. Risiken und Auffälligkeiten (ungewöhnliche Klauseln, kurze Fristen, Pönalen) 6. Bieten/nicht-Bieten-Empfehlung mit Begründung Antworte auf Deutsch, sachlich, ohne Marketingsprache. Gib bei jedem Punkt die Quelle an (Seitenzahl der Vergabeunterlagen oder Eintrag im Unternehmensprofil). [VERGABEUNTERLAGEN HOCHLADEN] [UNTERNEHMENSPROFIL HOCHLADEN]
Funktioniert mit ChatGPT, Claude, Gemini, NotebookLM, Microsoft 365 Copilot
Beispiel-Ausgabe

Mitarbeiter:in

Vergabeunterlagen: Stadt Augsburg, Citrix-Migration für 800 Arbeitsplätze, Auftragsvolumen geschätzt 280.000 €, Abgabefrist in 14 Werktagen. Unternehmensprofil: 25 Mitarbeitende, 8 Mio. € Umsatz, ISO 27001 zertifiziert (gültig bis 11/2026), Citrix Solution Advisor Gold, 4 Referenzprojekte über 250.000 € (alle aus dem Privatsektor).

KI-Assistent

**1. Verfahren** Stadt Augsburg, EU-weite Ausschreibung (Volumen oberhalb Schwellenwert 221.000 €), Verhandlungsverfahren mit Teilnahmewettbewerb, Frist: 14 Werktage. **2. Eignungskriterien** - Mindestumsatz 5 Mio. € letzte 3 Jahre — MATCH (8 Mio. €) - ISO 27001 — MATCH (gültig bis 11/2026) - Citrix-Zertifizierungsstufe „Solution Advisor" oder höher — MATCH (Gold) - Mindestens 3 vergleichbare Referenzen über 250.000 € in den letzten 5 Jahren — MATCH formal (4 Referenzen vorhanden) - Mindestens eine Referenz im öffentlichen Sektor (Soll-Kriterium, nicht Muss) — LÜCKE: alle Referenzen Privatsektor **3. Bewertungsmatrix** Preis 40 %, technisches Konzept 30 %, Projektmanagement 20 %, Referenzen 10 % (Quelle: Vergabeunterlagen S. 14). **4. Pflichtanlagen** Eigenerklärung Eignung, ISO-27001-Zertifikat, Citrix-Partnernachweis, 3 Referenzbeschreibungen (max. 2 Seiten je), Datenschutzkonzept nach DSGVO Art. 28. **5. Risiken** - Soll-Kriterium öffentliche Referenz fehlt — kein automatischer Ausschluss, aber Punktabzug bei Wertung Referenzen (10 %) - Pönale bei Verzug 0,2 % je Kalendertag, max. 5 % — branchenüblich, kein Sondersignal - Teilnehmerwettbewerb begrenzt auf 5 Bieter — Erstauswahl entscheidet **6. Empfehlung: BIETEN — mit Vorbehalt** Eignungsformell erfüllt. Schwäche bei Referenzen öffentlicher Sektor sollte im technischen Konzept durch detaillierten Migrationsansatz für Verwaltungsumgebungen kompensiert werden. Bieten/nicht-Bieten-Score: 7/10. Quellen: Vergabeunterlagen S. 8–17, Unternehmensprofil Stand 03/2026.

Quellen & Methodik

  • Loopio RFP Trends & Benchmarks Report 2026 (anbieter-getragene Erhebung gemeinsam mit der APMP — Association of Proposal Management Professionals, dem größten Industrieverband im Feld; basierend auf 1.500+ Teams weltweit): durchschnittliche Bearbeitungszeit 25 Stunden je Ausschreibung, KI-Einsatz 79 %, durchschnittliche Trefferquote 45 %, Volumen 179 vs. 145 Angebote/Jahr mit/ohne Software. Verfügbar unter loopio.com/trends-report/. Hinweis: Anbieter-Studie, von der Branchenvereinigung mitverantwortet — eine zweite, anbieter-unabhängige Quelle für die Trefferquote ist im deutschsprachigen Raum schwer auffindbar; Forrester/IDC-Reports zu RFP-Software-Markt sind kostenpflichtig und werden hier nicht zitiert.
  • IHK Köln, zitiert über tender-service.de: „Mehr als ein Drittel der Angebote werden allein wegen Formfehlern ausgeschlossen” (Stand 2024). Verfügbar unter tender-service.de/blog/fehler-bei-ausschreibungen-vermeiden.
  • EU-Schwellenwerte 2024–2025: Bundesamt für Soziale Sicherung, „Neue EU-Schwellenwerte für Auftragsvergabeverfahren zum 1. Januar 2024”. Verfügbar unter bundesamtsozialesicherung.de.
  • XVergabe-Schnittstellenstandard: Beschaffungsamt des BMI, e-Vergabe-Plattform des Bundes. Verfügbar unter evergabe-online.info/e-Vergabe/DE/Tiefenlinks/xvergabe.
  • Halluzinationsrisiko in Ausschreibungen: Lohfeld Consulting, „How to Overcome Four AI Risks in Proposal Writing Now” (2025); Iris AI, „A New Way of Preventing AI Hallucinations”. Beide thematisieren AI-Halluzinationen als Hauptrisikofaktor in Ausschreibungs-Automatisierung.
  • Vergleichstest deutscher Vergabeportale: DtGV, „Test von Portalen für öffentliche Ausschreibungen / Bekanntmachungen”. Verfügbar unter dtgv.de/tests/test-von-portalen-fur-oeffentliche-ausschreibungen-bekanntmachungen.
  • Tool-Pricing-Quellen: Veröffentlichte Tarife bzw. Vendr/Capterra-Marketplace-Daten der jeweiligen Anbieter, Stand April 2026. Loopio: ~120 USD/Nutzer/Monat, Mindestabnahme 15.000 USD/Jahr. Responsive: auf Anfrage, typisch 25.000–80.000 USD/Jahr.
  • Art. 28 DSGVO (AVV) und EU AI Act: Datenschutz-Grundverordnung in der aktuell gültigen Fassung; EU AI Act in Kraft seit 1. August 2024.

Du willst wissen, ob euer Angebots-Volumen und eure Antwortbasis für eine KI-gestützte Pipeline reif sind — und welcher Werkzeugmix in eurem Kontext realistisch ist? Meld dich — wir klären das gemeinsam in einem kurzen Gespräch.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar