Prompt Engineering ist kein Hexenwerk — aber es ist eine Fähigkeit, die man üben muss. In den letzten Jahren habe ich mit Modellen wie GPT-4, Claude und Llama experimentiert, um Texte, Code, Analysen und kreative Outputs zu erzeugen. Dabei habe ich festgestellt: Kleine Änderungen im Prompt können große Unterschiede im Ergebnis machen. In diesem Artikel teile ich meine praktischsten Strategien, konkrete Beispiele und Templates, die dir helfen, bessere Antworten aus großen Sprachmodellen (LLMs) herauszuholen.

Verstehe zuerst, was du wirklich willst

Bevor ich überhaupt tippe, definiere ich das Ziel: Soll das Modell informieren, zusammenfassen, debuggen, kreativ schreiben oder eine Liste priorisieren? Je klarer das Ziel, desto besser das Ergebnis. Ich formuliere intern zwei Fragen:

  • Was ist das gewünschte Format (Aufsatz, Liste, Tabelle, Code)?
  • Wer ist die Zielgruppe (Laien, Entwickler, Manager)?
  • Diese beiden Punkte baue ich konsequent in den Prompt ein — das erspart Nachfragen und unnötige Iterationen.

    Nutze die Rollen auf sinnvolle Weise

    Bei System-/Assistant-/User-Rollen (z. B. in OpenAI-APIs) setze ich die strategische Anweisung in die System-Nachricht: das ist der Rahmen, der das Modell langfristig steuert. Die User-Nachricht ist die konkrete Aufgabe.

  • System: Stil, Ton, ggf. Wissensgrenzen (z. B. "Antworte sachlich, max. 500 Wörter, keine rechtliche Beratung").
  • User: Die konkrete Aufgabe mit Daten/Beispielen.
  • So vermeide ich, dass das Modell bei jedem Prompt erneut die Stilvorgaben interpretieren muss.

    Prompt-Struktur, die bei mir funktioniert

    Ich folge meistens diesem Template:

    TeilInhalt
    KontextKurze Hintergrundinfo (z. B. "Ich bereite ein Meetup für Entwickler vor")
    Rolle & Ton"Du bist ein erfahrener Data‑Scientist, antworte präzise und verständlich"
    AufgabeKlare Anweisung (z. B. "Erstelle eine Gliederung für einen 30‑min Vortrag")
    Format & Einschränkungen"Gib 6 Punkte, maximal 200 Wörter, nutze Bulletpoints"
    Beispiel/OutputOptional: Beispiel eines gewünschten Outputs oder unerwünschte Ausgaben

    Dieses Template ist flexibel: Für Code‑Aufgaben füge ich Input‑/Output‑Beispiele hinzu; für kreative Texte liefere ich Ton‑ und Stilreferenzen.

    Beispiele: konkrete Prompts

    Ein paar konkrete Prompts, die ich oft nutze:

  • Zusammenfassung technischer Paper: "Du bist ein Research‑Editor. Fasse das Paper in 6 Bulletpoints zusammen, nenne Methodik, wichtigste Resultate und 2 Limitationen. Max. 150 Wörter."
  • Code‑Debugging: "Du bist Senior‑Python‑Entwickler. Hier ist der fehlerhafte Code: [Code]. Beschreibe kurz den Fehler, schlage einen Fix vor und zeige den korrigierten Code mit Kommentarzeilen."
  • Produktbeschreibung: "Schreibe eine 120‑Wörter Produktbeschreibung für ein Noise‑Cancelling Headset. Ton: sachlich, Zielgruppe: Berufspendler, nenne 3 USPs."
  • Few‑Shot und Beispiele einsetzen

    Wenn das Ergebnis strukturiert sein soll, gebe ich Beispiele vor (few‑shot). Zwei oder drei Beispiele zeigen dem Modell das gewünschte Muster besser als eine abstrakte Anweisung. Example:

  • Beispiel 1: Frage + gewünschte Antwortstruktur
  • Beispiel 2: Eine weitere, leicht abgewandelte Version
  • Wichtig: Beispiele sollten konsistent und sauber sein — widersprüchliche Beispiele verwirren das Modell eher.

    Temperature, Max Tokens und Steuerparameter verstehen

    Technisch gesehen beeinflussen Parameter wie temperature, top_p und max_tokens die Antworten massiv. Meine Faustregeln:

  • Temperature 0–0.3: präzise, deterministisch, gut für Fakten und Code.
  • Temperature 0.5–0.8: kreativer, geeignet für Ideengenerierung und Marketingtexte.
  • Max_tokens: Ausreichend hoch setzen, um Vollständigkeit zu garantieren (Besonders bei langen Analysen).
  • Ich teste Parameter iterativ: oft reicht ein kleiner Temperaturwechsel, um Floskeln zu reduzieren oder kreative Ideen zu erhalten.

    Prompt Chaining und Iteration

    Für komplexe Aufgaben zerlege ich das Problem in Schritte (Prompt Chaining). Beispiel: Datenanalyse

  • 1) Data Cleanliness Check: "Erkläre 5 mögliche Probleme in diesem Dataset."
  • 2) Feature Engineering: "Schlage 10 Features vor, sortiert nach Einfachheit der Umsetzung."
  • 3) Modellwahl: "Empfehle 3 Modelle mit Vor-/Nachteilen."
  • So bleibt die Kontrolle erhalten, und ich kann früh intervenieren, wenn ein Zwischenschritt nicht passt.

    Bewerte und verifiziere die Antworten

    LLMs erzeugen plausible, aber nicht immer korrekte Antworten. Ich verifiziere besonders bei Fakten, Code und Sicherheitsfragen:

  • Quellenprüfung: Bestehe auf Quellen oder erkläre, wie die Antwort verifiziert werden kann.
  • Unit‑Tests für generierten Code: Führe generierten Code in einer Sandbox aus.
  • Cross‑Check mit anderen Modellen: Bei kritischen Inhalten teste ich die gleiche Anfrage bei GPT‑4 und Claude und vergleiche die Antworten.
  • Typische Fehler und wie ich sie vermeide

    Einige Fallen, die ich gelernt habe zu umschiffen:

  • Vage Prompts: "Schreibe etwas über KI" → Ergebnis: unbrauchbar. Stattdessen: "Erkläre in 5 Bulletpoints die Vor‑ und Nachteile von Transformer‑Modellen für NLP‑Anwendungen, Zielpublikum: CTOs."
  • Überfrachtung: Zu viele Anforderungen in einem Prompt führen zu Auslassungen. Ich halte Anforderungen kurz und verteile sie auf mehrere Schritte.
  • Prompt‑Injection: Sei vorsichtig mit untrusted Input in Prompts (z. B. Benutzertexte). Validierung und Sandboxing sind nötig.
  • Fortgeschritten: Metaprompts, Tool‑Verwendung und Verhaltenssteuerung

    Wenn ich wiederkehrende Aufgaben habe, schreibe ich einen "Metaprompt" — ein vordefiniertes System‑Template, das ich per API automatisch befülle. Für Aktivitäten wie Recherche kombiniere ich das Modell mit Tools (Such‑API, Code‑Execution, Datenbanken). In solchen Setups formuliere ich klare Schnittstellen: welches Tool für welche Aufgabe, welche Datenformate erwartet werden.

    Praxisbeispiel: Eine Aufgabe, mehrere Iterationen

    Beispiel: Ich brauche einen Blogpost‑Entwurf über "Prompt Engineering für Anfänger". Meine Schritte:

  • Prompt 1 (Outline): "Erstelle eine Gliederung mit 6 Abschnitten, Ziel: technisch interessierte Laien."
  • Prompt 2 (Intro + Abschnitt 1): "Schreibe die Einleitung und den ersten Abschnitt, 200–300 Wörter, Ton: persönlich und klar."
  • Prompt 3 (Verfeinerung): "Füge Beispiele und ein kurzes Template für einen Prompt hinzu."
  • Prompt 4 (Faktencheck): "Fasse Quellen zusammen oder gib Links zu relevanten Papers." (Anschließend manuelle Verifikation)
  • Durch diese Aufteilung spare ich Zeit und kann gezielt nachsteuern.

    Wenn du mit Prompt Engineering startest, empfehle ich: experimentiere bewusst, dokumentiere Prompts und Ergebnisse, und entwickle eigene Templates. Mit der Zeit erkennst du Muster und kannst immer effizientere Eingaben formulieren — und das ist der Schlüssel zu produktivem Einsatz von LLMs.