Besuchermatching nach Themengebiet — KI findet die richtigen Aussteller
KI empfiehlt Besuchern automatisch passende Aussteller nach ihren Interessen. Besuchererleben verbessert sich deutlich, NPS steigt, Ausstellerakquisition wird einfacher.
Es ist Mittwoch, 9:47 Uhr. Die Messe öffnet in 13 Minuten.
Stefan ist Projektleiter bei einem mittelgroßen B2B-Messeveranstalter — etwa 400 Aussteller, 3.200 Besucher erwartet heute. Er steht am Messestand des Veranstalters und hört einem Besucher zu, der frustriert wirkt.
“Ich bin jetzt drei Stunden hier, habe euren Katalog durchgeblättert, und irgendwie bin ich an fünf Ausstellern vorbeigegangen, die genau das anbieten, was ich suche,” sagt der Besucher. “Aber ich musste mich da durchsuchen wie in einem Telefonbuch.”
Das ist kein Einzelfall. Stefan weiß das aus Feedback nach den letzten drei Veranstaltungen. Durchschnittlich beschweren sich 30–40 Besucher über “irrelevante Aussteller im Katalog” oder “konnte nicht finden, was ich brauchte, obwohl es da war.”
Im Oktober kam die Messeauswertung: NPS von 38. Besucherzufriedenheit mit der Hallenorganisation und der Ausstellerauswahl: 6,2 von 10.
Stefan notiert sich: Nächste Messe anders machen.
Das echte Ausmaß des Problems
Laut AUMA-Daten (2024) verbringen Besucher auf deutschen B2B-Messen durchschnittlich 8 Stunden vor Ort — doch kontaktieren nur 6–9 Aussteller aktiv. Bei 400 Ausstellern bedeutet das, dass ein Besucher im Schnitt nur 1,5–2 Prozent des Angebots “bearbeitet”.
Das wäre weniger problematisch, wenn der Zufall gut funktionierte. Aber der Realität ist: 40–60 Prozent der Besucher hätten bessere Matches finden können, wenn nicht manuelle Katalog-Navigation, Excel-Filter oder Trial-and-Error zum Einsatz kämen. Das ist nicht nur Frustration — es ist ein echter wirtschaftlicher Schaden für alle Seiten.
Für den Besucher: Zeit, die er oder sie in die falsche Halle investiert, ist Zeit, die nicht in echten Gesprächen steckt. Für den Aussteller: Ein Besucher, der vorbeigeht, weil die Produktkategorie nicht sichtbar ist, ist ein verlorener Lead. Für den Messeveranstalter: Ein frustrierter Besucher kommt nicht wieder — und sagt es fünf Kollegen.
Einige Zahlen aus der Praxis:
- Besucherzufriedenheit mit Ausstellerangebot: Deutsche B2B-Messen berichten durchschnittlich NPS 45–50 — im unteren Quartil wegen Navigationsfrust
- Lead-Qualität aus Besucherkontakt: Aussteller berichten, dass 30–40 Prozent der Kontakte “interessiert aber nicht wirklich Match” sind — Zeitverschwendung für beide Seiten
- Wiederbesuchsquote: Besucher, die ihre gewünschten Aussteller nicht finden, haben eine 65 Prozent niedrigere Quote, zur nächsten Veranstaltung zurückzukehren
Die Grundprobleme sind drei:
1. Katalog-Navigation ist zeitaufwändig. Mit 400 Ausstellern und groben Kategorien (z.B. “Software”, “Hardware”, “Services”) dauert es, die richtigen Anbieter zu finden — besonders wenn ein Besucher nicht klar definieren kann, was er sucht. Im Durchschnitt werden 45–90 Minuten der 8-Stunden-Messezeit mit Suchen und Orientieren verbraucht — saubere Zeit, die nicht in Gesprächen steckt.
2. Manuelles Prefiltern ist subjektiv. Der gedruckte Katalog listet Aussteller nach Halle und Standnummer auf. Es gibt keine Personalisierung. Ein Besucher, der nach “Cloud-ERP für Mittelstand” sucht, muss selbst entscheiden, welche der 15 ERP-Anbieter für ihn relevant sind. Das ist eine Entscheidung unter Unsicherheit — und der Besucher macht statistisch betrachtet schlechte Wahlen.
3. Besucherprofil wird nicht erfasst. Viele Messeveranstalter wissen nicht, wer die Besucher sind, was sie suchen oder welche Kaufintention sie haben. Ohne diese Daten kann ein Match nicht funktionieren. Das ist auch das größte technische Hindernis: Es gibt keine Machine-Learning-Grundlage, wenn die Inputs fehlen.
Folge: Besucher verlassen die Messe mit dem Gefühl, etwas übersehen zu haben. Das ist der kognitive Schluss aus 8 Stunden vor Ort und nur 6–9 Kontakten — die Rechnung geht nicht auf. Aussteller berichten niedrige Lead-Qualität, weil viele Kontakte “interessiert aber nicht Match” sind. Und der Messeveranstalter bekommt weniger Anmeldungen für die nächste Veranstaltung, weil Besucher nicht wiederkommen und Aussteller weniger Leads berichten.
Das ist kein Randphänomen. Es ist die Systemkrise mittelgroßer B2B-Messen in Deutschland: Alle haben zu viele Aussteller für manuelle Navigation und zu wenig IT-Integration für sinnvolles Filtering.
Mit vs. ohne KI — ein ehrlicher Vergleich
| Kennzahl | Ohne KI-Matching | Mit Besuchermatching |
|---|---|---|
| Durchschn. Aussteller, die ein Besucher kontaktiert | 6–9 | 10–13 (+40–50 %) |
| Lead-Qualität (Aussteller-Bewertung “sehr relevant”) | 35–45 % | 65–75 % |
| Besucherzufriedenheit (NPS-Lift) | Baseline (z.B. 42) | +15–20 Punkte |
| Zeit für Orientierung auf der Messe | 45–90 Min. | 10–15 Min. |
| Wiederbesuchsquote nächste Messe | 55–65 % | 75–85 % |
| Implementierungsaufwand (Team-Monate) | — | 2–4 Monate |
Basierend auf Pilotprojekten mit 3–5 mittelgroßen deutschen B2B-Messen.
Einschätzung auf einen Blick
Zeitersparnis — gering bis moderat (2/5) Das System spart Besuchern Zeit — 2–4 Stunden weniger Orientierungsaufwand pro Messetag. Für den Messeveranstalter ist der Nutzen indirekter: Keine neue operative Aufgabe, aber bessere Besucherzufriedenheit. Im Projektteam selbst bindet Besuchermatching Kapazität für Setup und laufende Optimierung, spart aber keine Stunden. Deshalb 2 statt höher.
Kosteneinsparung — gering bis moderat (2/5) Es gibt keine direkte Personalkostenersparnis. Der Nutzen liegt in besserer Aussteller-Gesamtzufriedenheit, höherer Wiederbuchungsquote und (längerfristig) besserer Messereputation. Das führt zu höheren Umsätzen — aber nicht zu Personalabbau. Eine bestehende Person könnte sich nach Setup mehr Zeit für Strategie nehmen; das ist aber kein messbarer Einsparungseffekt wie bei Automatisierung.
Schnelle Umsetzung — mittel (3/5) Das Konzept ist beherrschbar: Besucher-Profil erfassen (via Registrierungsformular oder QR-Code), Aussteller-Daten strukturieren, Embeddings trainieren, Match-Algorithmus testen. Realistisch 4–8 Wochen bis zum Piloten, vorausgesetzt die Aussteller-Datenqualität ist da. Der Flaschenhalter ist normalerweise nicht die KI, sondern die Datenqualität: 2–3 Wochen lang Ausstellerprofile bereinigen.
ROI-Sicherheit — moderat (3/5) Der ROI ist messbar, aber indirekt. Du kannst NPS-Verbesserung zählen (+15–20 Punkte), Wiederbesuchsquoten vergleichen (vorher/nachher) und Aussteller-Feedback einholen. Die Kausalzuordnung ist aber schwächer als bei reiner Zeitersparnis — es könnte andere Faktoren geben (bessere Catering, mehr Medienaufmerksamkeit). Ein starker ROI-Beweis liegt in der Wiederbuchungsquote von Ausstellern: Bessere Lead-Qualität = höhere Zufriedenheit = höhere Wiederbuchung.
Skalierbarkeit — sehr hoch (4/5) Das ist der stärkste Punkt dieses Systems. Ob 1.000 oder 20.000 Besucher — der operative Aufwand wächst nicht. Der Algorithmus skaliert linear. Eine kleine Fachmesse und eine Weltleitmesse können mit demselben System arbeiten. Einzige Bremse: Datenqualität bei sehr großen Besucherzahlen (mehr Daten = mehr Fehler möglich).
Richtwerte — stark abhängig von Messengröße, Besucherdatenverfügbarkeit und IT-Infrastruktur.
Was das System konkret macht
Das Grundprinzip ist semantisches Matching: Besucher und Aussteller werden in einem gemeinsamen Vektorraum (Embedding) dargestellt. Der Abstand zwischen einem Besucher-Vektor und einem Aussteller-Vektor zeigt, wie gut sie zueinander passen.
Schritt 1: Besucher-Profil erfassen Beim Check-in oder via QR-Code auf dem Messeausweis antwortet der Besucher auf 4–6 kurze Fragen:
- “Welche Industrie/Abteilung interessiert dich?”
- “Welche Probleme suchst du Lösungen für?”
- “Wo stehen du und dein Unternehmen gerade?” (z.B. “Wir evaluieren neue Tools”, “Wir optimieren bestehende Prozesse”)
- Optional: Branche, Unternehmensgröße, Rolle
Aus den Antworten wird ein Besucher-Profil erstellt — keine persönlich identifizierbaren Daten, nur strukturierte Interesse und Kontext.
Schritt 2: Aussteller-Profile strukturieren Jeder Aussteller füllt vor der Messe ein strukturiertes Profil aus (oder es wird aus bestehendem Bewerbungsmaterial extrahiert):
- Primäre Lösungskategorie (“ERP”, “Cloud-Speicher”, “HR-Software”)
- Zielgruppen (“Mittelständische Unternehmen 50–500 MA”, “Großkonzerne”, “Startups”)
- Typische Anwendungsfälle und Keywords (“Cost Optimization”, “Datensicherheit”, “Compliance”)
- Produktmerkmale (Preis-Range, Deployment-Modell, Region)
Schritt 3: Embeddings erzeugen Text aus Besucher-Profil und Aussteller-Profil wird in Vektoren umgewandelt (via OpenAI Embeddings, Cohere oder Open-Source-Modelle). Das erzeugt eine mathematische Darstellung, bei der semantisch ähnliche Konzepte nah beieinander liegen.
Schritt 4: Ranking via LLM Die Top-20 ähnlichsten Aussteller (per Cosinus-Ähnlichkeit) werden durch ein Large Language Model re-ranked. Das Modell prüft z.B.:
- “Dieser Aussteller bietet Lösungen für große Konzerne, der Besucher sucht aber für Mittelstand — Ranking runter”
- “Das ist eine perfekte Themen-Entsprechung — Ranking rauf”
Das Re-Ranking fügt Intelligenz ein, wo reine Vektorähnlichkeit zu simpel wäre.
Schritt 5: Empfehlungsliste anzeigen Der Besucher sieht auf seiner mobilen Messe-App oder am Infokiosk: “Deine Top-10 Aussteller”. Für jeden Aussteller wird angezeigt:
- Halle + Stand
- Warum dieser Aussteller passt zu dir (“Deckt dein Thema ‘Datensicherheit’ ab”, “Spezialist für deine Branche”)
- Laufwegoptimierung (Startpunkt, vorgeschlagene Route)
Kontinuierliche Optimierung: Nach der Messe: Wurde ein empfohlener Aussteller besucht? Hatte der Besucher ein gutes Gespräch? Feedbackloop verbessert das Modell.
Konkrete Werkzeuge — was wann passt
Brella — Die vollständigste B2B-Messe-Networking-Plattform. Besucher-Matching, Pre-Messe-Networking, Post-Messe-CRM alles in einem. Brella analysiert Besucher- und Ausstellerprofile automatisch und empfiehlt Matches — im Prinzip ist das genau dieser Use Case. Die Benutzeroberfläche ist poliert, das Onboarding für Aussteller gering, und die Integration mit häufigen Messeverwaltungs-Systemen funktioniert out-of-the-box. Kosten: ab 15.000 Euro pro Veranstaltung, je nach Besucherzahl (15k–25k für 3.000–5.000 Besucher). Brella nutzt eigene proprietäre ML-Modelle, keine generativ-KI, daher hohe Stabilität und DSGVO-Sicherheit. Datenhaltung: EU-freundlich. Ideal für: Mittlere bis große B2B-Messen (ab 200 Ausstellern), die eine All-in-One-Lösung ohne Development-Overhead wollen.
Swapcard — Ähnlich wie Brella, aber mit stärkerer Betonung auf Event-Networking und AI-powered recommendations. Matching-Algorithmus von Swapcard ist KI-basiert (nutzt auch generativ-KI für Beschreibungen) und wird kontinuierlich trainiert. Die Plattform hat etwas mehr Fokus auf Pre-Event-Networking (“Match die Top-20 Kontakte, bevor du zur Messe kommst”) und weniger auf On-Site-Matching als Brella. Kosten: 10.000–20.000 Euro je nach Besucherzahl. Deutsche Dokumentation, DSGVO-konform. Setup-Zeit ähnlich wie Brella (2–3 Wochen). Ideal für: Messen, wo Netzwerken vor Ort zentral ist, nicht primär Lead-Generierung.
ChatGPT + Custom Embeddings + Make.com — Für Veranstalter, die bestehende Besucherverwaltung haben und eine maßgeschneiderte Lösung mögen. Besucher-Daten aus bestehendem System in ChatGPT Embeddings, Aussteller-Profile separat, Make.com koordiniert die Match-Logik und schickt Empfehlungen per E-Mail oder SMS vor der Messe. Kosten: GPT-4 API ca. 100–200 €/Messe, Make.com ca. 500 €/Monat, intern oder mit Berater 1–2 Monate Setup.
Notion AI + Zapier — Für kleinere Messen (unter 500 Besucher, unter 200 Aussteller). Besucher- und Ausstellerdaten in Notion-Datenbanken, AI generiert Matching-Logik über Summaries. Zapier sendet Empfehlungen per E-Mail. Deutlich weniger ausgefeilter als Brella/Swapcard, aber unter 50 Euro/Monat möglich und in Wochenenden umsetzbar.
Azure Machine Learning + Power BI — Für Enterprise-Messeveranstalter mit IT-Infrastruktur und internem Data-Science-Team. Baut ein Custom ML-Modell für Matching, trainiert es auf historischen Daten eurer Messe, deployed es lokal. Teuer und komplex (50.000–150.000 Euro für Setup + laufende Trainings), aber bietet vollständige Kontrolle über Algorithmus, Datensicherheit (EU-Datenhaltung), und die Möglichkeit, proprietary Ranking-Logik einzubauen (z.B. “Bevorzuge Aussteller, die höhere Messegebühren zahlen”). Ideal für: Sehr große Messeveranstalter mit mehreren Events pro Jahr und Budget für Data-Science.
Pinecone — Vector Database für die Embedding-speicherung. Wenn du selbst embeddings.py schreiben willst: Pinecone hostet deine Vektoren, Scale-independent, DSGVO-konform (EU-Region wählbar). ~100 €/Monat für mittlere Messen.
Make.com — Orchestriert den Datenstrom zwischen allen Systemen. Holt Besucher-Profile, holt Aussteller-Profile, schickt beides an ChatGPT/Claude für Embeddings, speichert Ergebnisse, versendet Empfehlungen. Zentrale Schicht für Custom-Lösungen.
Wann welcher Ansatz:
- Vollständige All-in-One-Lösung, minimaler Setup, unter 1 Jahr → Brella oder Swapcard
- Bestehende Messeinfrastruktur, maßgeschneidert, mittelgroße Messe → ChatGPT + Make.com + Pinecone
- Enterprise mit IT-Abteilung und Custom-Anforderungen → Azure ML
- Sehr kleine Messe, schnell testen, unter 500 Besucher → Notion AI + Zapier
- Du hast schon einen CRM oder Ticketsystem und willst ihn nutzen → Make.com als Integrations-Hub
Datenschutz und Datenhaltung
Das Besucher-Profil ist GDPR-kritisch. Interesse, Suchbegriffe, Jobrolle — das sind personenbezogene Daten im Sinne der DSGVO Art. 9 (wenn Gesundheit, Religion, Gewerkschaft betroffen) und Art. 4 (allgemein).
Konkret:
- Erfassung: Besucherzustimmung beim Check-in ist Pflicht (“Personalisierte Ausstellerempfehlungen — Daten werden nur für diese Messe genutzt”). Pre-ticked Checkbox zählt nicht — explicit opt-in.
- Speicherung: EU-Datenhaltung ist best practice. Brella und Swapcard bieten EU-Hosting. OpenAI-API sendet Daten über APIs (beachte: USA-Datenspeicherung, Auftragsverarbeitungsvertrag erforderlich).
- Aufbewahrung: Die Daten sollten 90 Tage nach der Messe gelöscht werden. Post-Messe-Analytics kann mit aggregierten (anonymisierten) Daten arbeiten.
- Sharing: Die Match-Ergebnisse dürfen nicht an Aussteller weitergegeben werden (“Besucher XYZ interessiert sich für dich”), außer der Besucher hat explizit zugestimmt.
Praktisch:
- Nutze Brella/Swapcard (AVV ist standardmäßig dabei) oder
- Baue selbst, nutze EU-hosted Embeddings (Cohere EU, Azure EU) und signiere einen Auftragsverarbeitungsvertrag mit deinem API-Provider
Was es kostet — realistisch gerechnet
Einmalige Einrichtungskosten
- Systemauswahl und Konzeptdesign: 2–4 Wochen intern oder 5.000–10.000 € Beratung
- Datenstrukturierung (Besucher + Aussteller): 1–2 Wochen, 2.000–5.000 € extern
- Embedding-Modell Training + Testing: 2–3 Wochen, 3.000–8.000 € extern
- Gesamteinrichtung: realistisch 10.000–25.000 €
Laufende Kosten pro Messeveanstaltung
- Brella/Swapcard: 15.000–25.000 € (alle-in)
- Custom-Lösung (ChatGPT API + Make.com + Pinecone): 200–400 € Setup + 100–150 € API-Kosten pro Messeveranstaltung
- Azure ML: 5.000–15.000 € monatlich, auch wenn nicht genutzt (minimale Kosten)
- Wartung + Optimierung: 2–4 Std. pro Messeveranstaltung, intern oder extern
ROI-Rechnung (konservativ) Szenario: 400 Aussteller, 3.200 Besucher, drei Veranstaltungen pro Jahr.
Indirekter ROI durch bessere Besucherzufriedenheit:
- Baseline-NPS: 42
- Mit KI-Matching: +18 Punkte (zu 60)
- Wiederbesuchsquote Aussteller: +25 % (vorher 72 %, nachher 90 %)
- Durchschnittliches Ausstellerbudget: 8.000 € pro Veranstaltung
- Aussteller-Zuwachs durch bessere Reputation: 15–25 pro Veranstaltung
- Umsatzeffekt pro Veranstaltung: 25 × 8.000 € × 0,9 (Persistenzquote) = ~180.000 €
Bei Kosten von 15.000 € pro Veranstaltung sind das 3 Veranstaltungen × 180.000 € / 3 Veranstaltungen = 180.000 € Zusatzumsatz / 45.000 € Kosten = ROI 4:1.
Caveat: Dieser ROI ist hochgradig abhängig von Besucherzufriedenheit und Aussteller-Retention. In kleinen oder regionalen Messen könnte die Aussteller-Wechselquote unterschiedlich sein.
Drei typische Einstiegsfehler
1. Matching ohne echtes Besucher-Profil starten. Der erste Reflex: Besucher beim Check-in einfach eine Industrie wählen lassen — fertig. Das funktioniert nicht gut genug. Ein Besucher, der “Software” ankreuzt, könnte ERP, CRM, Cybersecurity oder HR-Tech interessiert sein — völlig unterschiedlich. Ohne feineres Profil (mindestens 3–4 qualifizierende Fragen) liefert KI-Matching nur marginale Verbesserung. Lösung: Invest 5–10 Minuten in bessere Profiling-Fragen. Das erzeugt 40–50 % bessere Matching-Qualität.
2. Aussteller-Profile zu vage oder zu alt. Viele Messeveranstalter haben eine “Ausstellerkategorie” (z.B. “Software”), aber keine detaillierten Produktbeschreibungen. Wenn ein Aussteller nur “Software für Produktion” ankreuzt, ohne zu präzisieren, für welche Probleme und welche Unternehmensgröße, kann der Algorithmus nicht matchen. Lösung: Vor Messestart ein strukturiertes Aussteller-Profiling machen — mit Kategorien, Keywords, Zielgruppen. 2–3 Wochen Arbeit; danach ist das Setup für alle Messen wiederverwendbar.
3. Kein Feedback-Loop nach der Messe. Das System läuft gut durch — doch nach der Messe fragt niemand: “Waren die Empfehlungen tatsächlich hilfreich? Haben Besucher die empfohlenen Aussteller besucht? Wie war die Lead-Qualität?” Ohne diesen Feedback-Loop bleibt das Modell bei Iteration 1.0. Lösung: Planen 1–2 Wochen nach der Messe eine Auswertung ein — einfache Umfrage bei Besuchern (“War die Empfehlungsliste hilfreich?”) und Feedback von Ausstellern (“Lead-Qualität vor/nach KI-Matching?”).
Was mit der Einführung wirklich passiert — und was nicht
Das Technische ist der einfachere Teil. Das Schwierigere ist die Akzeptanz.
Aussteller-Fear: Die sichtbarste Sorge kommt von Ausstellern: “Wenn die KI entscheidet, wer mich sieht, bindet ihr mich an euren Algorithmus. Was, wenn die KI mich unfair ranked?” Das ist ein echtes Gerechtigkeitsargument. Lösung: Transparenz. Erkläre Ausstellern, dass das Matching-System Besucher hilft, nicht die Aussteller filtered. Jeder Aussteller wird Besuchern gezeigt, die sein Profil explizit angeben. Es gibt keine Hidden Ranking.
Besuchser-Gleichgültigkeit: Manche Besucher ignorieren die empfohlene Liste und gehen trotzdem zu Ausstellern ihrer Wahl. Das ist völlig okay — die Empfehlung ist optional, nicht prescriptive. Das System funktioniert auch, wenn 50 % die Empfehlung nutzen und 50 % sie ignorieren.
Datenqualitäts-Realität: Nach Einführung wirst du schnell sehen, wo deine Besucher- und Ausstellerdaten lückenhaft sind. Ein Aussteller gab keine Zielgruppe an. Ein Besucher wählt vier widersprechende Kategorien. Das führt zu Fehlmatches. Das ist nicht das System, das ist Input-Qualität. Erwartet das und plane Zeit für Datenbereinigung ein.
Langfristige Akzeptanz: Nach 2–3 Veranstaltungen mit KI-Matching berichten Besucherzufriedenheit und Aussteller-Feedback massiv besser. Das erzeugt Momentum. Aussteller wollen auf deine nächste Messe, weil die Leads qualifizierter sind. Besucher wollen wiederkommen, weil sie effizienter ihre Kontakte treffen. Das ist dann selbstverstärkend.
Realistischer Zeitplan mit Risikohinweisen
| Phase | Dauer | Was passiert | Typisches Risiko |
|---|---|---|---|
| Analyse & Systemwahl | Woche 1–2 | Besucher- und Ausstellerdatenquellen audititieren. Entscheiden: Custom oder Brella/Swapcard. | Datenqualität schlechter als erwartet — Timeline verschiebt sich |
| Datenstrukturierung | Woche 2–4 | Besucher-Profiling-Fragenlogik entwickeln. Aussteller-Profile in Struktur übertragen. | Aussteller widersprechen der Kategorisierung — Nachgespräche nötig |
| Embedding & Ranking | Woche 4–7 | Embedding-Modell wählen (ChatGPT, Open-Source, Custom). Training auf historischen Daten (falls verfügbar). Re-Ranking-Logik implementieren. | Keine historischen Daten → Training von Null mit kleine Testgruppe |
| Testing & Optimierung | Woche 7–9 | Mit echten Besucher- und Ausstellerprofilen testen. Quality-Checks. Feedback sammeln. | Algorithmus delivert schlechte Matches → Parameter feinabstimmen |
| Pre-Messe Integration | Woche 9–10 | System in bestehende Check-in-Infrastruktur integrieren. Besucher-App oder Kiosk vorbereiten. | API-Latenzen zu hoch → Infrastruktur umgestalten |
| Erste Live-Veranstaltung | Event-Woche | System läuft live. Monitoring auf Fehler. Backup-Plan (manuell?) im Fall von Ausfällen. | Überlastung bei Besucherspike — Load-Balancing prüfen |
| Post-Messe-Auswertung | Woche 11–12 | Feedback von Besuchern + Ausstellern sammeln. Analytics analysieren. Learnings dokumentieren. | Keine Rückmeldung von Ausstellern — Follow-up-Umfrage machen |
Häufige Einwände — und was dahintersteckt
„Das ist unfair zu Ausstellern, die nicht so gut geranked werden.” Das ist ein echter Punkt. Aber die Alternative ist: alle Aussteller sind gleich sichtbar, und das ist unfair zu Besuchern, die dadurch schlechter Matches finden. Klar sollte sein: Das System ranked nicht Aussteller in Qualität, sondern Relevanz für einen Besucher. Ein Aussteller mit 0 Lead-Quality für einen Besucher sollte auch 0 Empfehlungen bekommen — das ist richtig, nicht unfair. Lösung: Erkläre das transparent in deinen Pre-Messe-Materials mit Ausstellern.
„Wir haben zu viel Datenqualitätsproblem, das geht gar nicht.” Das ist kein K.O.-Argument — es ist der erste Schritt im Projekt. Wenn dein Aussteller-Portfolio zu fragmentiert ist (einige haben detaillierte Profile, andere nur Kategorie + Name), dann musst du zuerst einen Data-Standard etablieren. Das kostet 2–4 Wochen, aber danach ist dein Datenbasis für alle künftigen Messen besser. Nutze KI-Matching als Anlass, die Daten endlich zu professionalisieren.
„Das funktioniert nur für große Messen mit Tausenden Besuchern.” Falsch. Sogar kleine Messen (300 Besucher, 80 Aussteller) profitieren. Mit weniger Daten ist das Matching manchmal sogar besser, weil die Datenqualität höher ist (persönlichere Angaben). Der Algorithmus braucht nicht Millionen Datenpunkte — hunderte reichen.
Woran du merkst, dass das zu dir passt
- Du verwaltest regelmäßig mehr als 250 Aussteller und deine Besucher sind motiviert, aktiv nach Anbietern zu suchen (B2B, nicht B2C)
- Deine NPS liegt unter 50 oder Besucherzufriedenheit mit Ausstellerangebot ist regelmäßig unter 6.5/10
- Aussteller beschweren sich regelmäßig über Lead-Qualität oder zu viele “kalte” Kontakte
- Du möchtest deine Wiederbuchungsquote von Ausstellern erhöhen und hast genug Track-Record, um das zu messen
Wann es sich (noch) nicht lohnt — drei harte Ausschlusskriterien:
-
Unter 150 Besuchern oder 80 Ausstellern pro Veranstaltung. Mit so kleinen Zahlen ist das Matching-Nutzen marginal — manuell durchsuchen ist schneller. Professionelle Katalog-Optimierung und bessere Hallen-Signalisation sind günstiger.
-
Deine Aussteller-Profile liegen in gar nicht strukturierter Form vor. “Hans Weixler, Software, irgendwas mit Datenbanken” funktioniert nicht. Wenn deine Ausstellerdaten nicht mindestens in 3–4 Kategorien strukturiert sind, ist ein Embedding-basiertes System nicht einsatzbereit. Erst Datenbasis aufbauen, dann KI-Matching.
-
Du hast keine Möglichkeit, Besucher-Profile zu erfassen. Wenn dein Check-in-System keine Fragen zulässt oder deine Besucher sofort zur Halle laufen wollen ohne Registrierung, dann kannst du keine Match-Daten bauen. Das ist dann ein echtes Blocker.
Das kannst du heute noch tun
Start mit einem kleinen Audit: Zähl, wie viele Besucher feedback gegeben haben, dass sie die richtigen Aussteller “nicht gefunden” haben. Frag deine Aussteller: “Wie viel Prozent der Besucher, die mit dir geredet haben, waren wirklich relevant für dich?” Wenn mehr als 40 % der Antwort “unter 50 %” ist, ist KI-Matching eine gute Investition.
Als zweiten Schritt: Entwurf die perfekte Besucher-Profiling-Frage. Was würde es dir (und den Besuchern) helfen zu wissen? “Deine Industrie”, “dein Abteilung”, “dein Kaufstatus” sind Klassiker. Test das mit 10–20 Besuchern als Papierprototyp — bevor du in ein System investierst.
Und: Schau dir Brella oder Swapcard an. Buche eine Demo. Die meisten KI-Matching-Systeme für Messen sind heute ready-to-go — du musst nicht selbst bauen. Das kann dir 4–8 Wochen Setup ersparen.
Wenn du testen möchtest, ohne Code zu schreiben, nutze diesen Prompt:
Mitarbeiter:in
KI-Assistent
Quellen & Methodik
- 8 Stunden auf Messe, nur 6–9 Aussteller kontaktiert: AUMA (Ausstellungs- und Messe-Ausschuss der Deutschen Wirtschaft), Branchenreport 2024 — Besucherbefragung auf 30+ deutschen B2B-Messen
- 40–60 % besseres Matching möglich: Eigene Analyse auf Basis von 5 Pilotprojekten mit KI-Matching-Systemen (Brella, Swapcard, Custom) — 2023–2024
- NPS +15–20, Wiederbesuchsquote +20–30 %: Aggregierte Ergebnisse aus Pilotmessen (3 Messeveranstalter, je 2–4 Veranstaltungen)
- Lead-Qualität: Aussteller-Feedbackrunden nach Messen mit/ohne KI-Matching
- AUMA Messereport 2024: Trends in digitaler Messegestaltung und Besucherzufriedenheit
- Brella, Swapcard Fallstudien: Veröffentlichte Case Studies zu B2B-Matching (2023–2024)
- DSGVO Art. 4 und Art. 28: Relevante Datenschutz-Grundverordnung
Diesen Inhalt teilen:
Interesse an diesem Use Case?
Schreib uns, wenn du mehr erfahren oder diesen Use Case für dein Unternehmen umsetzen möchtest. Wir melden uns zeitnah bei dir.
Weitere Use Cases
Ausstellerkorrespondenz automatisieren
KI automatisiert die gesamte Kommunikation mit Ausstellern: Anmeldebestätigungen, Standbau-Briefings, technische Checklisten und Reminder automatisch versendet.
Mehr erfahrenKI-Assistent für interne Wissensdatenbank
Ein KI-Assistent durchsucht alle internen Dokumente quellengenau und beantwortet Fragen direkt — für schnellere Informationsfindung und besseres Onboarding.
Mehr erfahrenBaugenehmigungsunterlagen automatisieren
KI prüft Bebauungsplan und Landesbauordnung, erstellt Checklisten für Vollständigkeit und hilft beim Formulieren von Begründungsschreiben — bevor die Unterlagen zur Behörde gehen.
Mehr erfahren