Prompt-Techniken

Prompt‑Techniken im Überblick

Warum mehrere Techniken?

Je komplexer oder spezifischer Ihre Aufgabe, desto stärker profitiert das Sprachmodell von zugeschnittenen Anweisungen. Zero‑Shot genügt für Standard‑Fragen, Few‑Shot sorgt für Format‑Treue, Chain‑of‑Thought für transparentes Denken – und ReAct bindet sogar externe Tools an. Jede Methode behebt typische Schwächen (Halluzinationen, Rechenfehler, fehlendes Kontextwissen) auf eigene Weise.

Zero‑Shot Prompting

Warum? Ideal für allgemeine Aufgaben ohne Nuancen – Klassifizieren, Übersetzen, Fakten abrufen. Keine Beispiele nötig, das Modell nutzt sein Weltwissen.

Beispiel – Sentiment‑Klassifizierung

Klassifizieren Sie den Satz als zufrieden, neutral oder unzufrieden:
"Der Service heute war wirklich hervorragend."

Antwort

zufrieden

Few‑Shot Prompting

Warum? Liefert dem Modell 2 – 5 Demonstrationen, damit es Muster und Ausgabeformat sicher trifft. Besonders hilfreich bei feinen Abstufungen oder strengen Formatvorgaben.

Beispiel – Stimmung (4 Shots)

Ordnen Sie die Stimmung zu (sehr zufrieden | zufrieden | neutral | unzufrieden | sehr unzufrieden)
"Toller Service." – sehr zufrieden
"War ganz okay." – neutral
"Sehr enttäuschend." – sehr unzufrieden
"Ich komme gern wieder." – sehr zufrieden
"Hat meine Erwartungen erfüllt." –

Antwort

zufrieden

Chain‑of‑Thought (CoT)

Warum? „Denken Sie Schritt für Schritt“ zwingt das Modell, Zwischenschritte auszuformulieren – Fehlerrate bei Mathe‑ oder Logikaufgaben sinkt deutlich.

Beispiel – Rechenweg

Berechnen Sie 645 × 47. Denken Sie Schritt für Schritt und zeigen Sie jeden Zwischenschritt.

Antwort (gekürzt)

1) 645 × 50 = 32 250
2) 645 × 3  = 1 935
3) 32 250 − 1 935 = 30 315
=> Ergebnis: 30 315

Step‑Back Prompting

Warum? In zwei Phasen: erst generelle Überlegungen, dann Detailfrage. Das aktiviert Hintergrundwissen und verbessert komplexe Reasoning‑Aufgaben.

Beispiel

  1. Prompt A
Welche Ursachen gibt es für Verspätungen im Bahnverkehr?
  1. Prompt B (mit Antwort aus A)
Wenden Sie diese Ursachen auf einen typischen Montagmorgen in München an und schlagen Sie konkrete Verbesserungen vor.

Self‑Consistency

Warum? Sie rufen denselben Prompt mehrmals mit hoher Temperatur auf, sammeln verschiedene Reasoning‑Wege und wählen das häufigste Ergebnis – statistisch meist korrekt.

Beispiel – Mehrheitsvotum (Kurzskizze)

  1. Prompt „Berechnen Sie 23²“ → Modell‑Antworten (529, 529, 530, 529, …)
  2. Mehrheitswert 529 wird akzeptiert.

Tree of Thoughts (ToT)

Warum? Verzweigt Chain‑of‑Thought zu mehreren Pfaden – sinnvoll bei Planungs‑ oder Optimierungsproblemen, wo unterschiedliche Lösungswege existieren.

Mini‑Beispiel – Wortleiter Start „SAND“, Ziel „BURG“. Das Modell erzeugt einen Baum möglicher Zwischenwörter (z. B. SANG → BANG → BUNG → BURG), bewertet Pfade und wählt den besten.

Technik‑Auswahl auf einen Blick

Ziel Beste Technik
Schnelle, generelle Antwort Zero‑Shot
Format & Nuancen Few‑Shot
Transparente Logik Chain‑of‑Thought
Komplexe Analyse Step‑Back
Höchste Genauigkeit Self‑Consistency
Alternativen evaluieren Tree of Thoughts

Fazit

Mit diesen Techniken passen Sie das Verhalten des Sprachmodells flexibel an Ihre Anforderungen an – von der einfachen Klassifikation bis zur agenten­gesteuerten Webrecherche. Experimentieren Sie, kombinieren Sie nach Bedarf – und bauen Sie Ihre persönliche Prompt‑Toolbox kontinuierlich aus.

War diese Seite hilfreich?