Zum Inhalt springen
Branchenübergreifend pricingpreisoptimierungmarge

KI-gestützte Preisgestaltungs-Optimierung und Dynamic Pricing

KI analysiert Wettbewerberpreise, Nachfragesignale und Preissensitivität der eigenen Kundensegmente, um Preisempfehlungen zu generieren — und Margenpotenziale zu heben, die manuell unentdeckt bleiben.

⚡ Auf einen Blick
Problem
Die meisten Unternehmen setzen Preise einmal pro Jahr und passen sie reaktiv an — wenn Wettbewerber sich bewegen oder Kunden Druck machen. Dabei verändern sich Zahlungsbereitschaft, Wettbewerbslandschaft und Kostenstruktur kontinuierlich. Jede Woche mit falschem Preis kostet entweder Marge oder Volumen.
KI-Lösung
KI-Preismodell aggregiert Wettbewerberpreise (Web-Monitoring), eigene Transaktionsdaten (Preis-Volumen-Elastizität je Segment) und externe Signale (Rohstoffpreise, Saisonalität). Output: Preisempfehlungen je Produkt/Segment mit erwarteter Margenauswirkung.
Typischer Nutzen
Unternehmen mit KI-Preisoptimierung erzielen typischerweise 2–7 % Margensteigerung. Bei 10 Mio. € Umsatz entspricht das 200.000–700.000 € zusätzlichem Deckungsbeitrag ohne Volumensteigerung.
Setup-Zeit
3–6 Monate — Preis-Volumen-Historiedaten erforderlich
Kosteneinschätzung
2–7 % Margensteigerung — bei 10 Mio. € Umsatz sind das 200–700k €/Jahr
Preis-Elastizitäts-Modell mit Wettbewerber-Monitoring-Layer. Tools: Pricefx, PROS Smart Price Optimization, Competera, oder Custom-ML auf Transaktionsdaten.
Worum geht's?

Es ist Mittwoch, 16:47 Uhr.

Vertriebsleiter Marcus Renner sitzt vor seinem Monatsabschluss und versteht die Zahlen nicht. Der Umsatz ist auf Plan, das Volumen sogar 4 Prozent über Vorjahr — aber die Bruttomarge ist um 1,8 Prozentpunkte gefallen. Bei 60 Millionen Euro Umsatz fehlen damit gut eine Million Euro Deckungsbeitrag, die im Plan stehen sollten und jetzt nicht da sind.

Marcus exportiert die Auftragsliste der letzten drei Monate nach Excel. Er sieht: Vertriebler Sven hat einem B-Kunden den Mengenrabatt gewährt, obwohl die Mindestmenge nicht erreicht wurde. Bei Vertriebler Lisa erhielten 14 von 31 Aufträgen einen “Sonderrabatt”, den eigentlich nur die Geschäftsführung freigeben darf. Drei Großkunden zahlen seit zwei Jahren denselben Preis — obwohl der Hauptkonkurrent in dieser Kategorie zweimal die Liste angehoben hat.

Niemand hat etwas falsch gemacht. Jede einzelne Entscheidung war kundenfreundlich, marktnah, vernünftig.

Trotzdem fehlt eine Million Euro.

Das ist kein Vertriebsproblem. Das ist ein Pricing-System, das ohne System läuft.

Das echte Ausmaß des Problems

Frag zehn Mittelständler, wann sie ihre Preise zuletzt strukturiert überprüft haben — und du wirst zehn unterschiedliche Antworten bekommen. „Letzte Listenpreis-Anpassung war 2024.” „Wir machen das pro Quartal.” „Eigentlich verhandelt der Vertrieb das fallweise.” Die Wahrheit liegt meistens dazwischen, und sie ist teurer, als Geschäftsführungen ahnen.

McKinsey hat in „The Power of Pricing” einen Befund veröffentlicht, der seit über einem Jahrzehnt zitiert wird, weil er konsistent stimmt: Eine Preiserhöhung von 1 Prozent — bei stabilem Volumen — steigert den operativen Gewinn eines durchschnittlichen S&P-1500-Unternehmens um rund 8 Prozent. Das ist fast 50 Prozent stärker als eine 1-Prozent-Senkung der variablen Kosten und mehr als dreimal so stark wie eine 1-Prozent-Volumensteigerung. Die Logik gilt für jedes Unternehmen, dessen variable Kosten den größten Teil der Erlöse ausmachen — also fast jedes B2B-Geschäft.

Der Hebel ist riesig. Trotzdem geschieht erfahrungsgemäß folgendes:

  • Listenpreise werden einmal jährlich aktualisiert, oft pauschal mit der Inflationsrate, ohne nach Produktgruppen oder Kundensegmenten zu differenzieren
  • Rabatte fließen durch eine „Price Waterfall”, die niemand vollständig sieht — On-Invoice-Rabatte, Off-Invoice-Boni, Skonti, Frachtübernahme, Werbekostenzuschüsse, Sonderkonditionen
  • Margenleckage entsteht stillschweigend: Mengenrabatte werden bei Kleinmengen gewährt, „temporäre” Aktionen werden zum Dauerzustand, Vertriebler unterbieten sich gegenseitig in derselben Region
  • Wettbewerberpreise werden manuell „gefühlt” — selten systematisch getrackt, fast nie SKU-genau ausgewertet

McKinsey-Praxisberichte aus 2024 dokumentieren konkrete Größenordnungen: Ein Verpackungshersteller erzielte über 24 Monate 3 Prozentpunkte Bruttomargensteigerung allein durch ein systematisches Pricing-Werkzeug; ein 15-Milliarden-Dollar-B2B-Distributor verdiente nach 18 Monaten KI-gestützter Pricing-Transformation über 200 Basispunkte zusätzliche Marge auf 1,5 Millionen SKUs. Das ist kein Marketing-Number, das ist Bilanzdaten.

Der typische Mittelständler rechnet sich das nicht aus, weil ihm zwei Zahlen fehlen: wie viel Marge er heute durch unsystematische Rabatte verliert und wie elastisch seine Kunden tatsächlich auf Preisänderungen reagieren. Beide Zahlen liegen in den ERP-Daten. Sie wurden nur nie ausgewertet.

Mit vs. ohne KI — ein ehrlicher Vergleich

KennzahlOhne KIMit KI-Preisoptimierung
Frequenz Preisüberprüfungjährlich, oft pauschalkontinuierlich, SKU- oder kundengenau
Wettbewerber-Monitoringmanuell, stichprobenartigautomatisiert, täglich
Kundensensitivitäts-AnalyseBauchgefühl im VertriebElastizitätsmodell auf Basis Transaktionshistorie
Margenleckage-Aufdeckungreaktiv im Monatsabschlussproaktiv im Auftragsdialog
Bruttomargen-Effekt nach 12–24 Monatenstabil bis leicht fallendtypisch +2 bis +7 Prozentpunkte
Datengrundlage erforderlichkeine18–36 Monate saubere Transaktionshistorie ¹

¹ Erfahrungswerte aus B2B-Pricing-Implementierungen — keine repräsentative Studie, aber konsistent über mehrere Quellen (McKinsey 2024, Wipro, Symson). Wer weniger Historie hat, kann mit einfacheren Wettbewerber-Tracking-Tools starten und Elastizitätsmodelle erst später ergänzen.

Wichtig ist die ehrliche Einordnung: KI-Preisoptimierung spart keine Mitarbeiterzeit im Tagesgeschäft — sie verändert die Marge. Wer einen Use Case sucht, der direkt Stunden im Team freischaufelt, ist mit der Rechnungsverarbeitung oder der Kundenkorrespondenz besser bedient. Pricing ist ein Margenhebel, kein Effizienzhebel.

Einschätzung auf einen Blick

Zeitersparnis — niedrig (2/5) Pricing-Optimierung ist kein Use Case, der spürbar Mitarbeiterzeit spart. Vertriebler bekommen statt einer leeren Excel eine Preisempfehlung — die Entscheidung trifft trotzdem ein Mensch. Der einzige reale Zeitgewinn liegt im Wegfall manueller Wettbewerbsrecherche, und der ist überschaubar. Wer auf Zeitersparnis optimiert, ist mit der Berichterstellung oder den Meeting-Protokollen besser bedient.

Kosteneinsparung — hoch (5/5) Hier liegt der Maximalwert in dieser Kategorie. Die direkte Margenwirkung ist mathematisch überlegen: 1 Prozent Preis = etwa 8 Prozent operativer Gewinn (McKinsey). 2 bis 7 Prozentpunkte Bruttomargensteigerung sind in B2B-Pricing-Implementierungen über 12 bis 24 Monate wiederholt dokumentiert (McKinsey 2024). Bei 10 Millionen Euro Umsatz entspricht das 200.000 bis 700.000 Euro zusätzlichem Deckungsbeitrag pro Jahr — ohne dass eine einzige zusätzliche Bestellung hereinkommt. Vergleichbar mit der automatisierten Qualitätssicherung und der Rechnungsverarbeitung, die ähnlich direkte Geldflüsse erzeugen.

Schnelle Umsetzung — niedrig (2/5) Realistisch braucht ein produktiver Pilotbetrieb 3 bis 6 Monate, ein vollständiger Roll-out 9 bis 18 Monate. Der zeitkritische Schritt ist nicht die Software, sondern die Datenextraktion und -bereinigung aus dem ERP — typischerweise 18 bis 36 Monate Transaktionshistorie auf SKU-Kundenebene. Damit ist der Einstieg deutlich aufwändiger als bei einer Wissensdatenbank (4–6 Wochen) und vergleichbar mit Predictive Analytics im Vertrieb.

ROI-Sicherheit — hoch (4/5) Die Margenwirkung ist direkt im Bilanz-Reporting messbar — Bruttomarge je Geschäftseinheit, durchschnittlicher Discount-Anteil, Anteil verhandelter Preise unter Listenpreis. Anders als bei einer Sentiment-Analyse, wo der Effekt indirekt bleibt, ist Pricing-Erfolg in der GuV ablesbar. Nicht 5/5, weil externe Faktoren (Wettbewerberbewegungen, Konjunktur, Produktmix) den Effekt überlagern können — eine saubere A/B-Test-Architektur in Geschäftseinheiten oder Kundensegmenten ist Pflicht.

Skalierbarkeit — hoch (5/5) Ein Pricing-Modell skaliert nahezu linear: doppeltes Sortiment, doppeltes Transaktionsvolumen, doppelte Anzahl Kunden — der Modellaufwand wächst kaum mit. Die Preisempfehlungen werden je SKU-Kunde-Kombination berechnet, das ist ein klassischer Machine Learning-Anwendungsfall mit positiver Skalierungsökonomie. Vergleichbar mit dem Chatbot für die Website und der Lead-Qualifizierung.

Richtwerte — stark abhängig von Unternehmensgröße, Produktportfolio, Wettbewerbsintensität und Datenqualität im ERP.

Was KI-Preisoptimierung konkret macht

Die meisten Menschen denken bei „Dynamic Pricing” zuerst an Uber-Surge-Preise oder Hotelübernachtungen, deren Preis sich stündlich ändert. Das ist ein Spezialfall. Für die meisten B2B-Mittelständler funktioniert das anders.

Ein KI-Preisoptimierungssystem kombiniert in der Regel drei Datenebenen:

1. Eigene Transaktionshistorie. Das System wertet aus, welche Preise du in den letzten 24 bis 36 Monaten je Kunde, Produkt und Auftragstyp tatsächlich realisiert hast — nicht den Listenpreis, sondern den Endpreis nach allen Rabatten. Daraus berechnet es Preiselastizitäten je Kundensegment: Wie reagiert ein A-Kunde auf 3 Prozent Preiserhöhung? Wie ein C-Kunde? Wie ein Kunde, der nur einmal jährlich bestellt?

2. Wettbewerberdaten. Über Web-Scraping (im B2C-Handel) oder strukturierte Marktbeobachtung (in B2B) werden Wettbewerberpreise eingespeist. Das ist im B2B-Geschäft der schwächere Hebel, weil Verhandlungspreise selten öffentlich sind — im E-Commerce dagegen die zentrale Datenquelle.

3. Externe Signale. Rohstoffpreise, Saisonalität, Lagerbestand, Konjunkturindikatoren. Bei Saisonware (Mode, Outdoor, Garten) ist Saisonalität der dominante Faktor; bei Stahl- oder Aluminiumprodukten der Rohstoffindex.

Aus diesen drei Schichten generiert das Modell Preisempfehlungen mit erwarteter Margenwirkung. Ein gut gebautes B2B-Pricing-System sagt nicht „setze Preis X” — es sagt: „Bei diesem Kunden in dieser Auftragsgröße liegt der erwartete Annahmepreis zwischen 47,80 und 51,30 Euro je Einheit. Bei 49,50 Euro hast du etwa 87 Prozent Annahmewahrscheinlichkeit und einen Deckungsbeitrag von 12,40 Euro je Einheit.” Vertriebler entscheiden weiter — aber sie entscheiden mit Daten, nicht aus dem Bauch.

Der unterschätzte Hebel: die Margen-Leckage

Der dramatischste Effekt entsteht oft gar nicht durch höhere Listenpreise, sondern durch das Schließen unsystematischer Rabatte. Vendavo nennt das die Price Waterfall — der Wasserfall vom Listenpreis zum Endpreis, der über Dutzende kleine Rabatt-, Bonus- und Sonderkonditions-Stufen führt. Bei vielen Mittelständlern fließt zwischen Listenpreis und realisiertem Preis 15 bis 35 Prozent Rabatt — und ein erheblicher Teil davon wurde nie bewusst entschieden, sondern ist über Jahre gewachsen.

Ein konkretes Beispiel aus einer dokumentierten Implementierung: Bei einem Verpackungshersteller mit 600 Millionen Euro Umsatz erhielten 18 Prozent der Aufträge Mengenrabatte, obwohl die Mengenstaffel nicht erreicht wurde. Allein das systematische Schließen dieser einen Leckage brachte 1,2 Prozentpunkte zusätzliche Bruttomarge — ein zweistelliger Millionenbetrag, ohne dass ein einziger Kunde verloren ging.

Datenqualität als Voraussetzung

Das ist der Punkt, an dem die meisten Pricing-Projekte scheitern, bevor sie richtig anfangen.

Ein Preiselastizitätsmodell braucht saubere Transaktionsdaten — das heißt: für jeden Auftrag der letzten 18 bis 36 Monate vollständig erfasst, in welcher Stückzahl, zu welchem Preis, mit welchen Rabatten, an welchen Kunden, in welcher Region, zu welchem Datum geliefert wurde. Symson und Wipro nennen in ihren Praxisberichten konsistent dieselben Datenprobleme:

  • Lückenhafte Datenfelder — Rabattgrund nicht erfasst, Lieferart nicht hinterlegt, Kundensegment-Zuordnung veraltet
  • Inkonsistente Mengen- und Einheitenangaben — Stück, Karton, Palette nebeneinander, ohne saubere Umrechnung
  • Fehlende „Lost Deals” — wer nur die gewonnenen Aufträge auswertet, sieht die Hälfte der Wahrheit nicht. Bei welchen Quotes sind wir mit unserem Preis ausgestiegen? Diese Information existiert in vielen ERPs schlicht nicht
  • Stammdaten-Drift — derselbe Kunde mit drei Kundennummern, weil er vor fünf Jahren neu angelegt wurde

Wer ein Pricing-Tool kauft, ohne vorher diese Datenqualität herzustellen, bekommt ein teures Excel mit ML-Buzzword. Realistische Reihenfolge: erst Datenbereinigung, dann Pricing-Tool. Im allgemein-Branchenkontext ist die Datenbereinigung und Stammdatenpflege oft das logische Vorprojekt.

In B2B-Geschäften mit wenigen Großkunden (unter 100 aktive Kunden) ist die Datenmenge zusätzlich oft zu klein für robuste ML-Modelle. McKinsey-Berater empfehlen in solchen Fällen einen Hybridansatz: regelbasierte Preisarchitektur (Margenrampen, Kundenklassen, Discount-Governance) auf der Logik-Ebene, ML-Empfehlungen nur dort, wo die Datenmenge ausreicht.

Konkrete Werkzeuge — was wann passt

Der Markt teilt sich grob in vier Kategorien. Die Wahl hängt weniger von Branche als von Komplexität, Datenmenge und Budget ab.

Pricefx — Enterprise-Standard mit deutschem Hauptsitz Modulare B2B-Pricing-Plattform mit Price Optimization, Price Management und CPQ. Pricefx ist eines der wenigen Enterprise-Tools, die EU-Datenhaltung als Standardoption anbieten und einen deutschen Hauptsitz haben (Pfaffenhofen). Subscription typisch ab 100.000 USD/Jahr nach Revenue Under Management; Implementierungsprojekt 100.000–1.500.000 USD. Lohnt sich ab etwa 50 Millionen Euro Umsatz und komplexer Preisarchitektur.

Vendavo — wenn Margenleckage und Vertriebssteuerung im Vordergrund stehen Schwerpunkt auf Price-Waterfall-Analytics, Deal Manager und CPQ. Vendavo ist stark, wenn ein erheblicher Anteil deines Umsatzes über verhandelte Preise läuft (Industrie, Großhandel, Maschinenbau). Erklärbarkeit ist ein bewusstes Designziel — Pricing-Empfehlungen sind regelbasiert nachvollziehbar, nicht reine ML-Blackbox. US-Hosting Standard; EU-Region nur in Großprojekten verhandelbar.

PROS — wenn echtes Echtzeit-CPQ gebraucht wird Wurzeln in der Luftfahrtbranche, heute breit in Manufacturing und B2B-Distribution. PROS Smart CPQ verarbeitet Quote-Volumen im sechs- und siebenstelligen Bereich pro Jahr und liefert Preisempfehlungen mit Gewinnwahrscheinlichkeit. Implementierung typisch 9–18 Monate.

Competera — Retail-Spezialist mit Elastizitätsfokus Für Einzelhändler mit 5.000+ SKUs und intensivem Wettbewerb (Elektronik, Heimwerker, Sport). Kombiniert Wettbewerber-Tracking mit elastizitätsbasierter Optimierung. EU-Hosting verfügbar, kein deutscher Support. Schneller einzuführen als die Pure-B2B-Lösungen — 8–12 Wochen Pilot realistisch.

7Learnings — Fashion und Markdown-Optimierung Berliner Spezialist für Modehandel mit Saisonware. Wenn dein Kernproblem nicht „dauerhafte Preisarchitektur” heißt, sondern „wie bekomme ich am Saisonende meinen Restbestand mit weniger Margenverlust raus”, ist 7Learnings das passgenaue Werkzeug — und kein Vendavo nötig. Performance-basiertes Preismodell möglich.

Qymatix — KMU-tauglicher B2B-Großhandel Karlsruher Anbieter, der die Lücke zwischen „Excel” und „Enterprise-Plattform” füllt. Speziell für B2B-Großhändler mit 5.000–10.000 Kunden und 20.000–100.000 Artikeln. Kombiniert Pricing mit Cross-Selling und Churn-Prognose. EU-Hosting, deutscher Support, Subscription typisch 1.500–3.000 Euro/Monat. Realistische Einstiegshürde für deutschen Mittelstand.

Prisync — reines Wettbewerber-Tracking für E-Commerce Wenn dein eigentliches Problem nicht Elastizität, sondern Marktbeobachtung ist: Prisync trackt Wettbewerberpreise täglich und kann Repricing-Regeln ausführen. Ab 99 USD/Monat. Kein Pricing-Optimizer im engeren Sinne — aber ein günstiger Einstiegspunkt für E-Commerce-Händler.

Custom-ML-Ansatz mit ChatGPT / Claude und einem Data-Engineer Für KMU mit unter 5 Millionen Euro Umsatz und einem klaren Pricing-Schmerz, aber ohne Budget für Enterprise-Plattformen, ist ein pragmatischer Einstieg möglich: Transaktionsdaten aus dem ERP exportieren, mit ChatGPT oder Claude eine erste Elastizitätsanalyse je Kundensegment durchführen, Wettbewerberpreise mit Perplexity oder einem einfachen Scraper sammeln. Das ist kein produktives Pricing-System, aber ein wertvolles Diagnose-Werkzeug — und kostet ein paar Wochen Aufwand statt sechs Monaten.

Zusammenfassung: Wann welcher Ansatz

  • B2B-Industrie/Großhandel mit komplexer Rabattlogik, 50+ Mio. € Umsatz → Pricefx oder Vendavo
  • B2B-Distribution mit hohem Quote-Volumen → PROS
  • Einzelhandel mit Wettbewerbsdruck → Competera
  • Fashion mit Saisonproblem → 7Learnings
  • Deutscher B2B-Mittelstand mit ERP → Qymatix
  • Kleiner E-Commerce, nur Wettbewerber-Tracking → Prisync
  • Diagnose-Phase ohne Plattform-Investment → ChatGPT / Claude + Datenexport

Rechtliche Besonderheiten

Pricing ist eines der wenigen KI-Anwendungsfelder mit echtem rechtlichen Mehraufwand. Drei Themen, die du vor dem Roll-out geklärt haben solltest.

1. DSGVO und personalisierte Preise. Sobald Preise nicht mehr nur nach Produkt und Auftragsgröße, sondern nach personenbezogenen Merkmalen (Browser-Verlauf, frühere Käufe, Standort, Endgerät) variieren, betrittst du den Bereich des „Profiling” nach Art. 4 Nr. 4 DSGVO. Art. 22 DSGVO gibt dem Kunden grundsätzlich das Recht, nicht einer ausschließlich automatisierten Entscheidung mit erheblicher Wirkung unterworfen zu werden. Bei klassischem B2B-Pricing nach Kundenklasse und Auftragsgröße ist das unkritisch, weil die Kundenklasse keine personenbezogene Profilerstellung darstellt. Bei B2C-Personalisierung wird das schnell heikel.

2. Hinweispflicht bei personalisierten Preisen. Mit der Umsetzung der EU-Omnibus-Richtlinie (Modernisierungsrichtlinie 2019/2161) ist seit 28. Mai 2022 in Deutschland geregelt, dass Online-Händler Verbraucher klar und vor Vertragsschluss darauf hinweisen müssen, wenn der angezeigte Preis auf Basis automatisierter Entscheidungen personalisiert wurde (§ 312d BGB i.V.m. Art. 246a EGBGB). Der Hinweis muss spezifisch erfolgen, nicht pauschal in den AGB. Dynamic Pricing ohne Personalisierung (Saisonalität, Lagerbestand, Tageszeit) ist davon nicht betroffen — es geht ausschließlich um Preise, die je nach individuellem Kundenprofil variieren.

3. Kartellrechtliche Risiken bei Wettbewerber-Daten. Hier liegt ein Risiko, das viele Unternehmen unterschätzen. Das US-Justizministerium hat 2024 das Unternehmen RealPage verklagt, weil dessen Pricing-Algorithmus Daten konkurrierender Vermieter aggregiert und an alle teilnehmenden Vermieter zurückgespielt hat — was die Behörde als algorithmisches Preiskartell eingestuft hat. Im November 2025 hat sich RealPage zu einem Vergleich verpflichtet, künftig keine nicht-öffentlichen Wettbewerbsdaten mehr in seine Empfehlungen einzubeziehen. Übersetzung für deutsche Unternehmen: Wenn ihr ein Pricing-Tool nutzt, das nicht-öffentliche Preisdaten konkurrierender Anbieter aggregiert und teilt, ist das nach §§ 1, 2 GWB und Art. 101 AEUV potenziell kartellrechtswidrig — auch wenn der Algorithmus es für euch macht. Öffentliche Wettbewerberpreise (Listenpreise im Web, Angebote auf Marktplätzen) sind unproblematisch.

4. Web Scraping und Datenbankrecht. Wer Wettbewerberpreise per Crawler abgreift, bewegt sich im Rahmen des UrhG (§§ 87a–e Datenbankrechte) und der jeweiligen AGB der Quellseite. Der BGH hat 2014 in der Entscheidung „Flugvermittlung im Internet” (I ZR 224/12) entschieden, dass Screen Scraping zulässig ist, soweit es technische Schutzmaßnahmen nicht umgeht und keine wesentlichen Datenbankteile übernommen werden. In der Praxis arbeiten die etablierten Tools (Prisync, Competera, 7Learnings) sauber im rechtlich zulässigen Bereich — bei Custom-Lösungen lohnt sich eine kurze juristische Einschätzung vor dem Live-Gang.

Empfehlung: Bevor ihr live geht, lass die Pricing-Logik einmal von einem Anwalt für Datenschutz/Wettbewerbsrecht prüfen. Das kostet typisch 1.500–4.000 Euro und schützt vor sechsstelligen Bußgeldern oder Abmahnungen.

Datenschutz und Datenhaltung

Reine B2B-Pricing-Plattformen verarbeiten kaum personenbezogene Daten im Kernbetrieb — das System sieht Kundennummern, Auftragsdaten, Preise, Mengen. Personenbezogen wird es bei drei Datenpunkten: Vertrieblernamen (wer hat den Quote erstellt), Ansprechpartner-E-Mails (wer hat freigegeben) und in einigen B2C-Setups der Kunden-Account selbst. Trotzdem gilt: Sobald euer System diese Daten verarbeitet, gilt die DSGVO — und damit die üblichen Pflichten zu Auftragsverarbeitungsvertrag (AVV), Datenminimierung und Aufbewahrungsfristen.

Für die genannten Werkzeuge gilt:

  • Pricefx und Qymatix bieten EU-Datenhaltung als Standardoption (Frankfurt-Region bzw. deutsche Rechenzentren). AVV unkompliziert verfügbar.
  • Vendavo und PROS hosten standardmäßig in den USA. EU-Region ist verhandelbar, aber nicht Default. Für DSGVO-sensible Umsätze (Pharma, Behörden, Versicherungen) explizit fordern.
  • Competera und 7Learnings bieten EU-Hosting; 7Learnings ist als Berliner Unternehmen mit ISO 27001 die unkomplizierteste Wahl in puncto deutscher Compliance.
  • Custom-ML mit OpenAI/Anthropic-API: Hier lohnt sich der Wechsel zur Azure-OpenAI- oder einer EU-Region des Anbieters — keine Verarbeitung personenbezogener Vertragsdaten in US-Standardendpoints.

Der praktisch wichtigste DSGVO-Schritt vor dem Produktivbetrieb: Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO mit dem Anbieter abschließen. Alle hier genannten Anbieter stellen AVV-Vorlagen bereit; in B2B-Pricing-Projekten ist dieser Schritt aber oft eine Hürde, weil die Procurement-Abteilung das Tool unter „Software” und nicht unter „Datenverarbeitung” einsortiert.

Was es kostet — realistisch gerechnet

Einmalige Kosten

  • Datenbereinigung und ERP-Datenextraktion: 2–6 Wochen interner Aufwand plus Beratung 5.000–25.000 Euro
  • Implementierungsprojekt mit Enterprise-Plattform (Pricefx, Vendavo, PROS): 100.000–1.500.000 Euro je nach Komplexität
  • Implementierung mit KMU-Plattform (Qymatix, 7Learnings): 15.000–60.000 Euro
  • Custom-ML-Diagnose mit ChatGPT / Claude und externem Data-Scientist: 10.000–30.000 Euro für eine erste belastbare Elastizitätsanalyse
  • Rechtliche Prüfung (DSGVO, Kartellrecht, AGB): 1.500–4.000 Euro

Laufende Kosten (jährlich)

  • Pricefx / PROS / Vendavo: 100.000–500.000+ Euro Subscription nach Revenue Under Management
  • Competera: ab ca. 50.000 Euro/Jahr
  • 7Learnings: Subscription oder Performance-Modell, beides auf Anfrage
  • Qymatix: 18.000–36.000 Euro/Jahr (ca. 1.500–3.000 Euro/Monat)
  • Prisync: 1.200–4.800 Euro/Jahr für E-Commerce-Tracking
  • Custom-ML-Ansatz: 200–1.000 Euro/Monat für API-Kosten und Cloud-Compute

Konservatives ROI-Szenario Ein Mittelständler mit 25 Millionen Euro Umsatz und 22 Prozent Bruttomarge führt Qymatix für 30.000 Euro/Jahr ein, plus 25.000 Euro Implementierung und 4.000 Euro rechtliche Prüfung. Erwartete Margensteigerung nach 12 Monaten: konservativ 1,5 Prozentpunkte (statt der McKinsey-Bandbreite 2–7) auf das Bruttomargenniveau. 1,5 Prozent von 25 Millionen Euro = 375.000 Euro zusätzlicher Deckungsbeitrag pro Jahr.

Selbst im pessimistischen Szenario, bei dem nur 0,8 Prozentpunkte Margensteigerung realisiert werden (200.000 Euro Mehrdeckungsbeitrag), amortisiert sich das Projekt im ersten Jahr drei- bis vierfach. Das ist der Grund, warum Pricing in McKinsey-Befragungen als der Use Case mit der höchsten ROI-Sicherheit unter den B2B-KI-Anwendungen geführt wird.

Wie du den Nutzen tatsächlich misst Der ehrlichste Nachweis ist eine A/B-Architektur: Eine Geschäftseinheit, eine Region oder ein Kundensegment bekommt die KI-Empfehlungen, ein vergleichbares nicht. Nach 6 bis 12 Monaten vergleichst du:

  • Bruttomarge je verkaufter Einheit (Hauptkennzahl)
  • Anteil verhandelter Preise unter Listenpreis (Margenleckage)
  • Average Discount je Kundensegment (Discipline)
  • Lost-Deal-Rate (Volumeneffekt — verlierst du durch höhere Preise zu viele Aufträge?)

Wer ohne Vergleichsgruppe nur die Gesamtmarge nach 12 Monaten anschaut, kann den Effekt nie sauber zuordnen — weil Wettbewerberpreise, Konjunktur und Produktmix den Effekt überlagern.

Typische Einstiegsfehler

1. Mit dem Tool statt mit der Datenbasis starten. Der häufigste Fehler. Geschäftsführungen lesen einen McKinsey-Artikel, gehen in eine Vendavo-Demo, sind überzeugt — und stellen nach drei Monaten fest, dass ihre ERP-Daten nicht ausreichen, um das Modell zu speisen. Lösung: Erst Datendiagnose, dann Toolauswahl. Frag dich vor jedem Demo-Termin: Habe ich für die letzten 24 Monate je Auftrag Kundennummer, SKU, Menge, Listenpreis und realisierten Endpreis sauber im ERP? Wenn nein, ist die Datenbereinigung das Vorprojekt.

2. Personalisiertes Pricing mit Dynamic Pricing verwechseln — und in DSGVO-Risiken laufen. Wer im B2C-Geschäft Preise nach Kunden-Profil personalisiert (Browserverlauf, Endgerät, frühere Käufe), ohne den Hinweis nach § 312d BGB / Art. 246a EGBGB einzubauen, riskiert Abmahnungen. Wer Wettbewerber-Daten in einem Tool aggregiert teilt, riskiert kartellrechtliche Verfahren (siehe RealPage). Lösung: Vor dem Live-Gang juristisch prüfen lassen, ob euer konkreter Anwendungsfall personalisiert (= hinweispflichtig) oder nur dynamisch (= unproblematisch) ist. Im B2B mit Kundenklassen-Pricing ist das fast immer unkritisch.

3. Pricing-Empfehlungen automatisch durchsetzen, ohne Vertrieb mitzunehmen. Wer ein Pricing-Tool einführt und dem Vertrieb sagt: „Ab morgen sind die Empfehlungen verbindlich” — dem desertiert das Vertriebsteam mental. Pricing-Entscheidungen sind oft Identitätsentscheidungen für erfahrene Vertriebler. Lösung: Schattenbetrieb (das System gibt Empfehlungen, der Vertrieb entscheidet wie bisher), dann Ampel-Modell (grün = Empfehlung, gelb = Begründung im Auftrag, rot = Freigabe Geschäftsführung), dann nach 6–9 Monaten ggf. härtere Governance.

4. Das System wird eingeführt, aber nicht kontinuierlich nachtrainiert. Das ist der gefährlichste Fehler — er passiert leise und kostet Geld.

Ein Preiselastizitätsmodell, das im Q1 2024 trainiert wurde, kann im Q3 2025 systematisch falsch liegen, weil sich Wettbewerbssituation, Kundensegmente und Rohstoffkosten verschoben haben. McKinsey-Berater berichten in Praxisveröffentlichungen, dass ungeplant veraltete Modelle nach 12–18 Monaten typischerweise 30–50 Prozent ihrer ursprünglichen Margenwirkung verlieren — ohne dass das Pricing-Team es sofort merkt.

Lösung: Modell-Retraining-Kadenz organisatorisch verankern. Wer ist verantwortlich, dass das Modell quartalsweise aktualisiert wird? Wer reviewt die Empfehlungen, wenn sich Rohstoffpreise um 15 Prozent bewegen? Wenn die Antwort „die IT” oder „Vendor X” lautet, fehlt eine Person mit Geschäftsverantwortung. Bei Enterprise-Tools ist das ein „Pricing Center of Excellence” mit 1–3 Köpfen; bei KMU oft eine Personalunion mit der Vertriebs- oder Controlling-Leitung.

Was mit der Einführung wirklich passiert — und was nicht

Die Technik ist nicht das Problem. Die Software liefert. Das Problem ist, dass Pricing-Entscheidungen in fast jedem Unternehmen mit Identität verknüpft sind — und die KI tritt in dieses Identitätsfeld ein.

Erfahrungsgemäß tauchen drei Widerstandsmuster auf, die in B2B-Pricing-Implementierungen wiederkehren:

Die erfahrenen Vertriebler. Sie haben über Jahre Beziehungen aufgebaut, kennen ihre Kunden persönlich, wissen, „wann man Preise hochziehen kann und wann nicht”. Ein System, das diese Erfahrung quantifiziert und in Empfehlungen verwandelt, fühlt sich an wie eine Entwertung dieser Erfahrung — auch wenn niemand es so kommuniziert. Was hilft: Die erfahrenen Vertriebler als Kuratoren des Systems einsetzen. Sie validieren die ersten Empfehlungen, markieren Sondersituationen, helfen, die Ampel-Logik zu kalibrieren. Wer das System mitgebaut hat, verteidigt es.

Die Geschäftsführung mit „Kundenfreundlichkeits”-Argument. Pricing-Tools machen sichtbar, wo der Discount unsystematisch verteilt wurde — und unweigerlich finden sich darunter Kunden, denen die Geschäftsführung selbst „aus Beziehungspflege” Sonderkonditionen gewährt hat. Diese Diskussion muss vor dem Roll-out geführt werden, nicht danach. Sonst sabotiert die Leitung das eigene Projekt.

Die Skeptiker im Controlling. Sie wollen den Beweis, dass die Margensteigerung wirklich auf das System zurückgeht und nicht auf Konjunktur, Wettbewerberbewegung oder Produktmix. Das ist legitim — und der einzige sauber Weg ist die A/B-Architektur. Plant das vor dem Live-Gang ein. Ohne Vergleichsgruppe ist jeder Erfolg argumentativ angreifbar.

Was konkret hilft:

  • Ein Pricing-Steering-Committee einrichten — Geschäftsführung, Vertriebsleitung, Controlling, IT — das monatlich die wichtigsten KPIs reviewt
  • Vor dem Roll-out die 5 größten Kunden persönlich anrufen, falls die Empfehlungen Preisanpassungen über 3–5 Prozent enthalten
  • Eine 90-Tage-Beobachtungsphase nach Live-Gang ankündigen, in der das System bewusst auf Konfliktfälle gescreent wird
  • Pricing-Empfehlungen visuell in das Vertriebs-Frontend integrieren — kein zusätzlicher Tool-Wechsel im Auftragsdialog

Realistischer Zeitplan mit Risikohinweisen

PhaseDauerWas passiertTypisches Risiko
Datendiagnose & Vorprojekt4–8 WochenTransaktionsdaten aus ERP extrahieren, Datenqualität prüfen, Margen-Waterfall analysierenDatenqualität reicht nicht — Bereinigungsprojekt vorschalten, +2–3 Monate
Toolauswahl & Vertragsverhandlung4–8 WochenDemos, Scoping-Workshops, AVV/Kartellrecht-Prüfung, Pilotumfang festlegenProcurement unterschätzt Komplexität, Verträge ohne EU-Hosting-Klausel werden unterschrieben
Implementierung & Modelltraining8–24 WochenDatenanbindung an ERP, Modelltraining, erste Empfehlungen im SchattenbetriebERP-Schnittstellen brüchig, Modellqualität niedriger als erwartet — Iterationen einkalkulieren
Pilotbetrieb in einer Geschäftseinheit12–24 WochenEmpfehlungen produktiv genutzt, Vertriebsfeedback einsammeln, A/B-Vergleich aufbauenVertrieb umgeht das System mental — Change Management nachsteuern
Roll-out & kontinuierliche Optimierungab Monat 9Erweitern auf weitere Geschäftseinheiten, Modell-Retraining quartalsweiseModell veraltet ohne organisatorische Verantwortung — Pricing-Owner benennen

Wichtig: Der Pilot läuft nicht nach 6 Wochen. Pricing braucht statistisch signifikante Datenmengen aus mehreren Auftragsmonaten, um eine Margenwirkung sauber zu messen. Wer nach 8 Wochen Erfolg ausruft, misst Rauschen.

Häufige Einwände — und was dahintersteckt

„Wir verhandeln Preise individuell — da kann ein System nicht mitreden.” Genau dort liegt der größte Hebel. Individuelle Preisverhandlung bedeutet meistens: jeder Vertriebler nutzt seine Bauchregeln, niemand sieht Margenleckage über das gesamte Vertriebsteam. Ein System, das jedem Vertriebler vor der Quote-Erstellung sagt „bei diesem Kunden in dieser Auftragsgröße liegt der Annahmepreis zwischen X und Y”, ergänzt die individuelle Verhandlung — und macht Margenleckage auf Teamebene sichtbar. Es ersetzt keinen Vertriebler, der seinen Kunden seit 15 Jahren kennt.

„Wir sind zu klein dafür.” Stimmt — für Pricefx, Vendavo, PROS. Für Qymatix ab etwa 5.000 Aktivkunden und 25 Millionen Euro Umsatz nicht. Für Prisync bei E-Commerce ab etwa 1 Million Euro Umsatz nicht. Für ChatGPT-gestützte Diagnose ab praktisch jeder Größe nicht. Die ehrliche Untergrenze ist nicht „klein”, sondern: Habt ihr 18+ Monate saubere Transaktionshistorie und mindestens 50 wiederkehrende Kunden? Darunter ist es zu früh.

„Unsere Kunden würden Preisanpassungen sofort merken und abspringen.” Im B2B selten, im B2C kontextabhängig. McKinsey-Praxisberichte zeigen, dass die Volumenelastizität bei B2B-Kunden mit langen Beziehungen meist deutlich geringer ist als gefühlt — weil Wechselkosten (Lieferant umstellen, Zertifizierungen, Logistik) Preiserhöhungen unter 5 Prozent fast immer absorbieren. Wer das System einführt, sollte aber die ersten 3–6 Monate Lost-Deal-Rate streng beobachten — falls die Annahme falsch ist, merkt man es dort zuerst. Genau diese Beobachtung ist im manuellen Pricing-Modus heute oft gar nicht möglich.

„Was passiert, wenn das Modell falsch liegt?” Dafür gibt es das Ampel-Modell und die menschliche Entscheidung. Ein gut gebautes B2B-Pricing-System gibt Empfehlungen mit Konfidenzintervallen, keine Befehle. Vertriebler entscheiden, das System lernt aus den Entscheidungen. Wenn das Modell systematisch falsch liegt — was vorkommt, vor allem in den ersten Monaten — entdecken Vertriebler das in den Konfliktfällen und melden es zurück. Wer das System ohne Feedback-Loop einführt, hat ein anderes Problem als das Modell.

„Lohnt sich das gegenüber Wendy’s und Uber?” Das ist eine wichtige Verwechslung. Wendy’s hatte 2024 ein PR-Desaster, als es ankündigte, „Surge Pricing” einzuführen — Preise, die zur Stoßzeit steigen. Das ist B2C-Personalisierung in einer kommodifizierten Konsumkategorie, in der Kunden Preisfairness erwarten. Bei B2B-Pricing in Industrie und Großhandel gibt es keine vergleichbare Erwartungshaltung — Kunden erwarten, dass Preise verhandelt werden, dass Mengenstaffeln existieren, dass A-Kunden anders behandelt werden als C-Kunden. Was im B2C als Manipulation wahrgenommen wird, ist im B2B Standard. Trotzdem: B2C-Surge-Pricing in Konsumkategorien ohne klare Wertkommunikation ist auch 2026 eine schlechte Idee.

Woran du merkst, dass das zu dir passt

  • Eure Bruttomarge ist über die letzten 24 Monate stabil oder leicht gefallen, obwohl Volumen und Umsatz gewachsen sind — klassisches Signal für stille Margenleckage
  • Mehr als 30 Prozent eurer Aufträge laufen mit verhandelten Rabatten unter Listenpreis, ohne dass jemand den Discount-Anteil je Vertriebler systematisch kennt
  • Eure Listenpreise werden einmal jährlich pauschal angepasst, ohne nach Produktgruppe, Kundensegment oder Wettbewerbsdruck zu differenzieren
  • Ihr habt 18+ Monate saubere Transaktionshistorie im ERP — Kundennummer, SKU, Menge, Listenpreis, Endpreis je Auftrag, mit konsistenten Stammdaten
  • Ihr habt mindestens 50 wiederkehrende Kunden und 200+ aktive SKUs, sonst ist die Datenmenge für Elastizitätsmodelle zu klein
  • Eure Konkurrenz bewegt Preise mehrmals jährlich — und ihr erfahrt es jeweils erst über die Vertriebsmeldung, wenn ein Kunde den Preisvergleich anspricht
  • Ihr habt eine Person im Controlling oder Vertrieb, die das Thema fachlich tragen kann und Zeit dafür hat — nicht „nebenher” für die nächsten 12 Monate

Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:

  1. Unter 5 Millionen Euro Umsatz und/oder weniger als 50 wiederkehrende Kunden. Die Datenmenge reicht nicht für robuste Elastizitätsmodelle. Investiert die Zeit lieber in saubere Stammdaten und eine erste Margen-Waterfall-Analyse mit Excel oder einem Pricing-Berater. Ein Pricing-Tool kommt danach.

  2. Eure ERP-Daten sind unvollständig oder inkonsistent. Wenn Auftragsrabatte nicht systematisch erfasst sind, wenn Kundennummern dupliziert wurden, wenn SKU-Stammdaten Lücken haben — dann ist das Vorprojekt Datenbereinigung, nicht Pricing. Ein Pricing-Tool, das auf schlechte Daten gesetzt wird, gibt selbstbewusst falsche Empfehlungen ab. Siehe auch Datenbereinigung und Stammdatenpflege und ERP-Datenzuverlässigkeits-Scoring.

  3. Niemand im Unternehmen hat Zeit und Mandat, das Modell quartalsweise zu pflegen. Ein Preiselastizitätsmodell, das nach 18 Monaten nicht nachtrainiert wurde, verliert typisch 30–50 Prozent seiner Margenwirkung. Wenn ihr keinen Pricing-Owner benennen könnt — namentlich, mit Zeitbudget — wird das Projekt nach dem Implementierungs-Hype still einschlafen. Lieber gar nicht starten, als nach 24 Monaten festzustellen, dass das teure System veraltete Empfehlungen produziert.

Das kannst du heute noch tun

Interaktiver Rechner

Margenleckage-Schnellrechner

Gib deine Kennzahlen ein — du siehst sofort, wie viel Marge jährlich ungenutzt bleibt und welcher Tool-Tier zu deiner Unternehmensgröße passt.

Aufträge, bei denen vom Listenpreis abgewichen wird

Listenpreis minus realisierter Endpreis, in Prozent

Du brauchst kein Tool für den ersten Schritt. Du brauchst einen ERP-Export.

Konkret in 60 Minuten: Exportiere aus deinem ERP die Transaktionsdaten der letzten 12 Monate auf SKU-Kunde-Ebene — mindestens Kundennummer, SKU, Menge, Listenpreis und realisierter Endpreis. Lade die Tabelle in ChatGPT, Claude oder NotebookLM und nutze den unten stehenden Prompt für eine erste Margen-Waterfall-Diagnose. Was du danach weißt: wo deine größten Margenleckage-Hotspots sitzen — bevor du auch nur eine Demo gebucht hast.

Margen-Waterfall-Diagnose mit 60 Minuten Aufwand
Du bist Pricing-Analyst für ein B2B-mittelständisches Unternehmen. Analysiere die folgende Transaktionstabelle der letzten 12 Monate. Daten je Zeile: Kundennummer, Kundensegment (A/B/C), SKU, Produktgruppe, Menge, Listenpreis pro Einheit, realisierter Endpreis pro Einheit, Auftragsdatum, Vertriebler. Beantworte mir folgende Fragen — präzise, mit konkreten Zahlen, ohne Spekulation: 1. PRICE WATERFALL: Wie hoch ist der durchschnittliche Discount (Differenz Listenpreis zu Endpreis in Prozent) — gesamt, je Kundensegment (A/B/C) und je Produktgruppe? 2. MARGENLECKAGE: In wie vielen Prozent der Aufträge wurde ein Rabatt über 10 Prozent gewährt, obwohl die Auftragsmenge unter 100 Einheiten lag (typische Mengenstaffelschwelle)? Nenn die Top-5 Vertriebler nach Volumen dieser "Off-Pattern"-Discounts. 3. PREISKONSISTENZ: Bei welchen SKUs schwankt der realisierte Endpreis um mehr als 15 Prozent zwischen Kunden derselben Klasse (z.B. zwei A-Kunden für dasselbe Produkt)? Liste die Top-10 inkonsistenten SKUs. 4. TREND: Hat sich die durchschnittliche Marge über die 12 Monate verbessert oder verschlechtert? Splitte den Trend nach Kundensegment. 5. EMPFEHLUNG: Welche 3 konkreten Pricing-Maßnahmen würden den größten Margeneffekt erzielen? Schätze für jede Maßnahme die potenzielle jährliche Margenverbesserung in Euro. Wenn die Daten für eine Frage nicht ausreichen, sag das explizit. Spekuliere nicht. [HIER DEINE TRANSAKTIONSTABELLE EINFÜGEN ODER ALS DATEI HOCHLADEN]
Funktioniert mit ChatGPT, Claude, NotebookLM
Beispiel-Ausgabe

Mitarbeiter:in

Transaktionstabelle mit 18.500 Zeilen aus den letzten 12 Monaten, Werkzeug-Großhandel, 4.200 SKUs, 850 aktive Kunden

KI-Assistent

Hier sind die wesentlichen Befunde: 1. PRICE WATERFALL: Durchschnittlicher Discount gesamt 18,4 Prozent. Aufgegliedert nach Segment: - A-Kunden: 22,1 Prozent (höher als B-Kunden — auffällig) - B-Kunden: 16,8 Prozent - C-Kunden: 14,2 Prozent Auffällig: A-Kunden erhalten höhere Discounts als B-Kunden, obwohl die Mengenstaffelschwellen das nicht rechtfertigen würden. Mögliche Ursache: persönliche Beziehungspflege ohne systematische Discipline. 2. MARGENLECKAGE: 23,7 Prozent der Aufträge erhielten Discounts über 10 Prozent bei einer Auftragsmenge unter 100 Einheiten. Top-5 Vertriebler nach Off-Pattern-Discount-Volumen: - Vertriebler 4 (Region Süd): 412.000 Euro Umsatz mit 14,3 Prozent Off-Pattern-Anteil - Vertriebler 7 (Region Nord): 387.000 Euro Umsatz mit 12,9 Prozent - Vertriebler 2: 298.000 Euro mit 11,4 Prozent - Vertriebler 11: 271.000 Euro mit 10,8 Prozent - Vertriebler 9: 244.000 Euro mit 9,7 Prozent 3. PREISKONSISTENZ: 47 SKUs zeigen Endpreis-Schwankungen über 15 Prozent zwischen A-Kunden. Top-3: - SKU "PRO-4471" (Schraubendreherset): 27 Euro bis 41 Euro Endpreis je A-Kunde - SKU "PRO-2208" (Akkubohrer): 89 Euro bis 124 Euro - SKU "PRO-9012" (Werkzeugkoffer): 156 Euro bis 198 Euro 4. TREND: Durchschnittliche Bruttomarge ist über 12 Monate von 23,4 Prozent auf 21,8 Prozent gefallen — minus 1,6 Prozentpunkte. Stärkster Rückgang bei A-Kunden (minus 2,3 Prozentpunkte). 5. EMPFEHLUNG (geschätzte Jahres-Margenwirkung): - Off-Pattern-Discounts unter 10 Prozent senken via Auftragsfreigabe-Logik: ca. 380.000 Euro/Jahr - SKU-Preisharmonisierung Top-50 inkonsistente Produkte: ca. 220.000 Euro/Jahr - A-Kunden-Discount-Review (Beziehungs-Discounts validieren): ca. 290.000 Euro/Jahr Gesamtpotenzial der drei Maßnahmen: ca. 890.000 Euro Margenwirkung pro Jahr. Voraussetzung: Vertrieb wird vor dem Roll-out eingebunden, Geschäftsführung steht zu A-Kunden-Review. Hinweis: Die Spalten "Vertragsstatus" und "Lost Deal" sind in den Daten nicht enthalten — eine vollständige Analyse der Volumeneffekte (Sind wir bei Preiserhöhungen aus Quotes ausgestiegen?) ist damit nicht möglich.

Wer nach dieser ersten Diagnose echten Hebel sieht, hat eine Geschäftsgrundlage für die nächste Stufe — und kann ein Tool wie Qymatix, Pricefx oder Vendavo mit klarem Business Case in die Demo holen, statt sich die Demo den Business Case erfinden zu lassen.

Quellen & Methodik

  • „The Power of Pricing” — McKinsey & Company: Marn, Roegner, Zawada, „The power of pricing”, McKinsey Quarterly. Kernaussage „1 Prozent Preisanstieg ≈ 8 Prozent Operating-Profit-Steigerung” auf S&P-1500-Datengrundlage. mckinsey.com
  • „B2B pricing: Navigating the next phase of the AI revolution” — McKinsey & Company (2024/2025): Praxisberichte mit Margen-Verbesserungen von 200–250 Basispunkten bei einem 15-Mrd.-USD-B2B-Distributor und 3 Prozentpunkten Marge bei einem Verpackungshersteller. McKinsey-Befragung von 400+ B2B-Pricing-Führungskräften: 65–85 Prozent erwarten KI-Einführung in Pricing in den nächsten 1–3 Jahren. mckinsey.com
  • „Redesigning B2B pricing processes to get more out of technology” — McKinsey: „Pricing transformations can enhance pricing to generate two to seven percentage points of sustained margin improvement”. mckinsey.com
  • „Price Elasticity in B2B” — Wipro / Symson / Zilliant: Diskussion typischer B2B-Datenherausforderungen (geringe Datenmenge, jährliche Preisänderungen, fehlende Lost-Deals).
  • DOJ vs. RealPage (2024–2025): Justizministerium-Pressemitteilung zur Klage 2024 und Settlement-Vorschlag November 2025 zu algorithmischer Preiskoordination. justice.gov
  • EU-Modernisierungsrichtlinie (Omnibus-Richtlinie 2019/2161): Hinweispflicht bei personalisierten Preisen seit 28. Mai 2022 in deutsches Recht umgesetzt (§ 312d BGB i.V.m. Art. 246a EGBGB). Erläuterung u.a. CMS Hasche Sigle. cmshs-bloggt.de
  • Wendy’s Surge-Pricing-Backlash 2024: Axios und Fortune-Berichte zu öffentlicher Reaktion auf angekündigtes Surge Pricing.
  • BGH I ZR 224/12 „Flugvermittlung im Internet” (2014): Zulässigkeit von Screen Scraping zu Vergleichszwecken, soweit technische Schutzmaßnahmen beachtet werden.
  • Tool-Pricing: Pricefx, Vendavo, Competera, PROS Preisangaben aus Anbieter-Websites, G2/Capterra-Vergleichsdatenbanken sowie TrustRadius (Stand April 2026). 7Learnings, Qymatix, Prisync siehe verlinkte Tool-Profile.

Du willst wissen, wo eure Margenleckage konkret sitzt — bevor ihr Geld in eine Plattform investiert? Meld dich. Wir schauen gemeinsam in die Daten und ihr habt nach 90 Minuten eine quantifizierte Liste der drei größten Hebel.

Diesen Inhalt teilen:

🤝

Interesse an diesem Use Case?

Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.

Deine Daten werden ausschließlich zur Bearbeitung deiner Anfrage verwendet (Art. 6 Abs. 1 lit. b DSGVO). Mehr in unserer Datenschutzerklärung.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich? Wähle 1–3 Themen — du bekommst nur Inhalte dazu.

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar