Zum Inhalt springen

Prompt Engineering vertiefen: Fortgeschrittene Techniken für Profis

Chain-of-Thought, Few-Shot, Persona-Prompts, JSON-Output und mehr — mit Vorher-Nachher-Beispielen und einer Übung für heute Abend.

D
Daniel Sonnet
· · 6 Min. Lesezeit
Prompt Engineering vertiefen: Fortgeschrittene Techniken für Profis

Du schreibst täglich Prompts. Du weißt, dass “Sei präzise” besser ist als nichts. Du hast die Grundlagen drauf.

Aber manchmal liefert das Modell trotzdem nicht, was du willst. Die Antwort ist zu allgemein. Das Format stimmt nicht. Die Argumentation ist oberflächlich. Du fragst dich: Liegt das am Modell, oder an mir?

Meistens liegt es am Prompt. Dieser Artikel zeigt dir, was du ändern kannst.

(Falls du noch ganz am Anfang bist: Schau zuerst in unsere Grundlagen des Prompt Engineerings — hier bauen wir darauf auf.)


Chain-of-Thought: Das Modell denkt laut mit

Chain-of-Thought (CoT) ist eine der wirkungsvollsten Techniken und gleichzeitig eine der einfachsten zu implementieren.

Das Prinzip: Du bittest das Modell ausdrücklich, seinen Denkweg zu zeigen, bevor es zur Antwort kommt. Das klingt trivial. Der Effekt ist es nicht.

Ohne CoT:

“Welche Marketingstrategie passt besser zu uns: Content Marketing oder bezahlte Werbung?” Antwort: Zwei Absätze, Pro und Kontra, kein klares Ergebnis.

Mit CoT:

“Welche Marketingstrategie passt besser zu uns: Content Marketing oder bezahlte Werbung? Denke Schritt für Schritt: Analysiere zuerst unsere Situation (SaaS-Startup, 6 Monate alt, €2.000 Monatsbudget, B2B), dann die Vor- und Nachteile beider Optionen für genau diese Situation, dann komm zu einer begründeten Empfehlung.” Antwort: Strukturierte Analyse, kontextbezogene Empfehlung, nachvollziehbare Begründung.

Der Unterschied liegt nicht darin, dass das Modell klüger geworden ist. Es liegt daran, dass du es gezwungen hast, den Lösungsweg sichtbar zu machen — was gleichzeitig die Fehlerrate senkt, weil Denkfehler im Prozess eher auffallen.


Few-Shot Prompting: Zeigen statt Erklären

Few-Shot bedeutet: Du gibst dem Modell Beispiele, bevor du die eigentliche Aufgabe stellst. Nicht erklären, wie etwas sein soll — zeigen.

Zero-Shot (kein Beispiel):

“Schreibe eine kurze Produktbeschreibung für einen kabellosen Lautsprecher.” Ergebnis: Solide, aber generisch.

Few-Shot (mit Beispielen):

“Hier sind zwei Beispiele für unsere Produktbeschreibungen:

Beispiel 1 — Kopfhörer: ‘Nicht für Hintergrundmusik. Für das Album, das du schon hundert Mal gehört hast und diesmal wirklich hören willst.’

Beispiel 2 — Mikrofon: ‘Deine Stimme, ohne den Raum drumherum. Kein Rauschen, kein Kompromiss.’

Schreibe jetzt eine Beschreibung für unseren kabellosen Lautsprecher im gleichen Stil.” Ergebnis: Deutlich näher an deiner Marken-Stimme.

Few-Shot funktioniert besonders gut für: spezifische Schreibstile, Formatvorgaben, Klassifizierungsaufgaben. Zwei bis vier Beispiele reichen meist. Mehr macht den Prompt unnötig schwerfällig. Besonders wenn du die Content-Produktion mit KI unterstützt, lohnt es sich, Few-Shot-Beispiele einmal sauber zu bauen und dann wiederzuverwenden.


Persona-Prompts: Den richtigen Expertenhut aufsetzen

Eine Persona zu definieren ändert nicht nur den Ton — sie aktiviert andere Wissensstrukturen im Modell.

Ohne Persona:

“Erkläre, warum unser Onboarding-Prozess vielleicht nicht funktioniert.”

Mit Persona:

“Du bist ein erfahrener Product Manager, der speziell auf B2B-SaaS-Onboarding spezialisiert ist und in den letzten zehn Jahren mehr als zwanzig Onboarding-Prozesse optimiert hat. Analysiere unseren Onboarding-Ablauf aus dieser Perspektive: [Beschreibung]. Was sind die häufigsten Fehler, die du in dieser Situation erkennen würdest?”

Das klingt nach Magie, ist aber Statistik: Texte über erfahrene B2B-Produktmanager haben in Trainingsdaten andere Formulierungen, andere Annahmen, andere Problemformulierungen als allgemeine Texte. Die Persona verankert das Modell in diesem Teil des gelernten Wissens.

Eine Warnung: Zu ausgefallene Personas (“Du bist ein Alien-Unternehmensberater…”) führen oft zu schlechteren Ergebnissen. Realistische, klar umrissene Experten-Rollen funktionieren am besten.


Strukturierter Output: JSON und Co.

Wenn du KI-Outputs weiterverarbeiten willst — in einer Datenbank speichern, in ein Template einbauen, per Script auslesen — brauchst du strukturierten Output. Und dafür fragst du explizit danach.

Prompt für strukturierten Output:

“Analysiere die folgende Produktbewertung und gib mir das Ergebnis als JSON zurück. Felder: sentiment (positiv/negativ/neutral), hauptthema (ein Stichwort), konkrete_kritik (Liste mit maximal drei Punkten), weiterempfehlung (true/false).

Bewertung: [Text]”

Das Ergebnis ist direkt in Code verwendbar. Kein Parsing von Fließtext, keine manuelle Extraktion. Für wiederkehrende Aufgaben wie die Berichterstellung ist das ein echter Hebel: einmal den richtigen JSON-Prompt bauen, dann skalieren.

Wichtig: Wenn du mit APIs arbeitest, bieten viele LLM-Anbieter inzwischen natives “Structured Output” oder “Function Calling” an — das ist zuverlässiger als JSON per Prompt zu erzwingen, weil das Modell dabei gezwungen wird, das Schema einzuhalten.


Negative Instruktionen: Sag, was du nicht willst

Das klingt simpel und wird systematisch unterschätzt. Negative Instruktionen grenzen den Lösungsraum ein — und das verändert das Ergebnis erheblich.

Ohne negative Instruktionen:

“Schreibe mir eine Einleitung für einen Fachartikel über KI-Ethik.” Ergebnis: Wahrscheinlich eine Definition, ein historischer Überblick, Allgemeinplätze.

Mit negativen Instruktionen:

“Schreibe mir eine Einleitung für einen Fachartikel über KI-Ethik. Beginne nicht mit einer Definition. Verwende nicht das Wort ‘wichtig’. Kein historischer Rückblick in der Einleitung. Starte mit einem konkreten Dilemma oder einer offenen Frage.”

Das Modell muss jetzt einen anderen Weg finden. Und der ist fast immer besser.


Temperature: Was du wirklich steuern kannst

Temperature ist ein Parameter, den die meisten Nutzer nie bewusst verändern — obwohl er einen echten Unterschied macht.

Niedrige Temperature (0–0.3) bedeutet: Das Modell wählt fast immer die wahrscheinlichste nächste Antwort. Konsistent, vorhersehbar, wenig Überraschungen. Ideal für: Strukturierte Aufgaben, Fakten-Extraktion, Code.

Hohe Temperature (0.7–1.0) bedeutet: Das Modell erlaubt sich mehr Ausreißer. Mehr Kreativität, mehr Variation — aber auch mehr Fehler und gelegentlich inkohärente Ergebnisse. Ideal für: Brainstorming, kreatives Schreiben, Ideengenerierung.

Du kannst Temperature direkt in der ChatGPT-API oder Claude-API setzen. In der Benutzeroberfläche ist es weniger direkt zugänglich — aber allein zu wissen, dass diese Dimension existiert, verändert, wie du Prompts formulierst. Für kreative Aufgaben explizit nach “ungewöhnlicheren, weniger offensichtlichen” Ideen zu fragen ist das UI-Äquivalent zu einer höheren Temperature.


Wann fortgeschrittenes Prompting Overkill ist

Nicht jede Aufgabe braucht Chain-of-Thought und Persona und Few-Shot.

“Fass diese E-Mail in zwei Sätzen zusammen” braucht nichts davon. “Übersetze diesen Absatz ins Englische” auch nicht. Die Techniken hier helfen bei komplexen Aufgaben: Analyse, Argumentation, Formatkonversion, stilistisches Schreiben, Entscheidungshilfe.

Wenn du das Modell mit zu vielen Instruktionen überlädst bei einfachen Tasks, steigt die Wahrscheinlichkeit von merkwürdigen Ergebnissen. Einfache Aufgabe, einfacher Prompt. Komplexe Aufgabe, strukturierter Prompt.

Mehr zu den Grundlagen der Prompt-Techniken findest du in unserem Einstiegsartikel — der zeigt, wann du überhaupt anfangen solltest, dir über diese Techniken Gedanken zu machen.


Deine Übung für heute Abend

Nimm einen Prompt, den du regelmäßig nutzt und mit dessen Ergebnis du nie ganz zufrieden bist. Schreib ihn neu — mit drei konkreten Änderungen:

  1. Füge eine Persona hinzu (wer soll antworten?).
  2. Füge mindestens zwei negative Instruktionen hinzu (was soll die Antwort nicht enthalten oder tun?).
  3. Bitte explizit darum, den Denkweg zu zeigen, bevor die finale Antwort kommt.

Vergleiche das Ergebnis mit deinem alten Prompt. Der Unterschied wird dir zeigen, welche dieser Techniken für deine spezifischen Aufgaben den größten Hebel hat.

Wenn du tiefer in Prompt Engineering einsteigen willst und neue Techniken direkt in deine Praxis integrieren möchtest: Der Newsletter liefert dir regelmäßig neue Ansätze — ohne dass du selbst die Fachliteratur durchforsten musst.

Diesen Artikel teilen:

Kommentare

Kommentare werden in Kürze freigeschaltet. Bis dahin freuen wir uns über dein Feedback per E-Mail an info@gerabo.de.

Kostenloser Newsletter

Bleib auf dem neuesten
Stand der KI

Wähle deine Themen und erhalte relevante KI-News, Praxistipps und exklusive Inhalte direkt in dein Postfach – kein Spam, jederzeit abmeldbar.

Was interessiert dich am meisten? (Wähle 1–3 Themen)

Mit der Anmeldung stimmst du unserer Datenschutzerklärung zu. Jederzeit abmeldbar.

Kostenlos
Kein Spam
Jederzeit abmeldbar