Leitfaden

Vom Prompt zum Kontext: So holst du mehr aus KI heraus

March 18, 202615 Min. Lesezeit
Vom Prompt zum Kontext: So holst du mehr aus KI heraus

Die meisten Leute nutzen KI wie eine Suchmaschine. Frage eintippen, auf ein brauchbares Ergebnis hoffen. Manchmal klappt das. Meistens nicht gut genug.

Gleichzeitig bauen Teams, die wissen was sie tun, komplette Systeme auf denselben Modellen auf. Der Unterschied liegt nicht im Modell. Er liegt in dem, was du dem Modell gibst. Die Anweisung, die Struktur, der Kontext drumherum.

Das Feld hat sich in den letzten zwei Jahren verschoben -- von "Prompt Engineering", also dem cleveren Formulieren einer Frage, hin zu dem, was heute Context Engineering heisst: das Gestalten von allem, was ein Modell sieht, bevor es antwortet. System Prompt, Tools, Dokumente, Gedaechtnis, Gespraechsverlauf. Der Prompt ist nur noch ein Teil eines groesseren Ganzen.

In diesem Artikel gehen wir die wichtigsten Techniken durch, von den Grundlagen bis zur Produktion. Jeweils mit Beispielen, die du morgen anwenden kannst.

Die Grundlagen, die niemand richtig macht

Der haeufigste Fehler ist Unschaerfe. "Schreib was ueber Kundenzufriedenheit" liefert dir einen generischen Text. Nicht weil das Modell schlecht ist, sondern weil es zu wenig Information hat, um etwas Besseres zu produzieren.

Anthropic nennt das den "neuer Mitarbeiter"-Test: Wenn du deinen Prompt einem klugen Kollegen geben wuerdest, der gerade erst anfaengt und keinen Kontext ueber dein Unternehmen hat -- wuesste der genau, was zu tun ist? Wenn die Antwort Nein ist, hat das Modell dasselbe Problem.

Vage

Schreib was ueber Kundenzufriedenheit.

Spezifisch

Schreibe eine professionelle E-Mail von 150 Woertern an einen Kunden, der letzte Woche eine Beschwerde ueber eine verspaetete Lieferung eingereicht hat. Bedanke dich fuer das Feedback, entschuldige dich und biete einen einmaligen Rabatt von 10% auf die naechste Bestellung an. Ton: freundlich, aber geschaeftlich.

Der Unterschied ist nicht subtil. Der erste Prompt gibt dem Modell freie Hand. Der zweite definiert genau, was gebraucht wird: Format, Laenge, Zielgruppe, Inhalt, Ton. Je spezifischer du bist, desto weniger muss das Modell raten.

Unterschied zwischen vagen und spezifischen KI-Prompts
Spezifische Prompts geben dem Modell genug Kontext, um ein brauchbares Ergebnis zu liefern.

Praktische Faustregeln: Gib immer das gewuenschte Format an (E-Mail, Liste, JSON, Zusammenfassung). Nenne die Zielgruppe. Gib Einschraenkungen mit (Laenge, Ton, was nicht enthalten sein soll). Und wenn die Aufgabe mehrere Schritte hat, nummeriere sie.

Struktur: der Prompt als Vertrag

Sobald deine Prompts komplexer werden, reicht es nicht, alles in einen Absatz zu quetschen. Du brauchst Struktur. Denk an einen Prompt wie an einen Vertrag: Es gibt klare Abschnitte fuer die Rolle, die Anweisung, die Daten und das gewuenschte Ergebnis.

Der effektivste Weg ist eine klare Trennung der Bestandteile. Anthropic empfiehlt XML-Tags, um Anweisungen, Kontext und Daten zu trennen. Aber das Prinzip funktioniert bei jedem Modell: Mach explizit, wo die Anweisung aufhoert und die Daten beginnen.

Rolle: Du bist ein erfahrener Finanzanalyst.

Anweisung: Analysiere die untenstehenden Quartalszahlen
und erstelle eine Zusammenfassung von maximal 200 Woertern.
Fokus auf Umsatzwachstum, Margen und Risiken.

Kontext:
- Unternehmen: TechCorp GmbH
- Zeitraum: Q4 2025
- Branche: SaaS

Daten:
[Quartalszahlen hier einfuegen]

Gewuenschtes Format:
- Zusammenfassung (max 200 Woerter)
- Top 3 Risiken (nummeriert)
- Empfehlung (1 Satz)

Vier klare Bloecke: Rolle, Anweisung, Kontext, Ausgabeformat. Das Modell weiss genau, was es tun soll, mit welchen Daten, und wie das Ergebnis aussehen soll. Kein Spielraum fuer Interpretation.

Rollenzuweisung verdient besondere Aufmerksamkeit. "Du bist ein erfahrener Finanzanalyst" bewirkt mehr, als du denkst. Es aktiviert ein bestimmtes Register an Wissen und Stil im Modell. Ein Rechtsberater schreibt anders als ein Marketeer. Benenne immer die Expertise, die du brauchst.

Fuer alle, die mit APIs arbeiten: Nutze das System Prompt fuer die Rolle und feste Anweisungen, und das User Prompt fuer die variablen Daten. Das trennt Konfiguration von Input und macht deine Prompts wiederverwendbar.

Few-Shot und Chain-of-Thought

Manchmal reicht Erklaeren nicht aus. Dann musst du es vormachen. Das ist das Prinzip hinter Few-Shot Prompting: Du gibst zwei oder drei Beispiele der gewuenschten Ein- und Ausgabe, und das Modell lernt das Muster.

Klassifiziere die folgenden Kundenbewertungen als
Positiv, Neutral oder Negativ.

Bewertung: "Tolles Produkt, macht genau das, was ich brauchte."
Klassifikation: Positiv

Bewertung: "Lieferung hat lange gedauert, aber das Produkt ist okay."
Klassifikation: Neutral

Bewertung: "Funktioniert nicht. Geld zurueck verlangt."
Klassifikation: Negativ

Bewertung: "Die Farbe ist anders als auf dem Foto, aber die
Qualitaet ist gut."
Klassifikation:

Zwei bis drei Beispiele reichen meistens. Wichtiger als die Menge ist die Diversitaet: Decke die Randfaelle ab. Wenn alle deine Beispiele eindeutig positiv oder negativ sind, weiss das Modell nicht, wie es mit Mehrdeutigkeit umgehen soll.

Dann Chain-of-Thought: das Modell Schritt fuer Schritt denken lassen, bevor es eine Antwort gibt. Bei komplexen Aufgaben -- mathematische Berechnungen, logische Raetsel, Datenanalyse -- verbessert das die Genauigkeit drastisch.

Achtung 2026: Reasoning-Modelle funktionieren anders

Modelle wie OpenAI o3 und Claude Opus mit Adaptive Thinking machen Chain-of-Thought intern. Sie denken bereits Schritt fuer Schritt hinter den Kulissen. Explizit "denke Schritt fuer Schritt" zu fordern, kann bei diesen Modellen die Performance sogar verschlechtern. OpenAI empfiehlt, bei Reasoning-Modellen einfachere Prompts zu verwenden und das Modell seine eigene Denkfolge bestimmen zu lassen. Nutze manuelles Chain-of-Thought nur bei Standardmodellen (GPT-4o, Claude Sonnet), die nicht selbst schlussfolgern.

Prompt Chaining: vom Prompt zur Pipeline

Ein einzelner Prompt ist gut fuer eine einzelne Aufgabe. Aber sobald du etwas Komplexeres willst -- ein Dokument analysieren, klassifizieren und darauf basierend eine Aktion ausloesen -- stoesst du an Grenzen. Die Loesung: Prompt Chaining. Du zerlegst eine komplexe Aufgabe in mehrere Schritte, wobei der Output von Schritt 1 zum Input fuer Schritt 2 wird.

Das gaengigste Muster ist Self-Correction: generieren, pruefen, verfeinern. Schritt 1 produziert einen ersten Entwurf. Schritt 2 bewertet ihn anhand von Kriterien. Schritt 3 verbessert auf Basis der Bewertung. Jeder Schritt ist ein separater Prompt (oder API-Call), sodass du Zwischenergebnisse inspizieren und nachsteuern kannst.

Prompt-Chaining-Pipeline fuer Rechnungsverarbeitung
Eine Prompt Chain zerlegt komplexe Aufgaben in ueberschaubare Schritte, die jeweils einzeln testbar sind.

Ein Praxisbeispiel aus unseren Projekten: Rechnungsverarbeitung. Die Kette sieht so aus:

  1. PDF-Eingang per E-Mail (Trigger)
  2. KI-Modell extrahiert Lieferant, Betrag, Datum, USt (Structured Output)
  3. Validierung gegen Lieferantenliste und Buchhaltungsregeln
  4. Bei Uebereinstimmung: Entwurfsbuchung im Buchhaltungssystem anlegen
  5. Bei Abweichung: Benachrichtigung an die Finanzabteilung

Jeder Schritt hat seinen eigenen Prompt, seine eigene Validierung und seine eigene Fehlerbehandlung. Wenn Schritt 2 ein Feld nicht extrahieren kann, geht die Rechnung nicht weiter zu Schritt 3, sondern in eine manuelle Warteschlange. Das ist der Unterschied zwischen einer Demo und einem Produktionssystem.

Fuer zuverlaessige Datenextraktion in solchen Pipelines ist Structured Output essenziell. Statt Freitext forderst du vom Modell JSON nach einem festen Schema an. Sowohl OpenAI als auch Anthropic bieten Structured-Output-APIs, die das Schema erzwingen -- damit bekommst du garantiert valides JSON zurueck.

Context Engineering: das grosse Ganze

Alles oben dreht sich um den Prompt selbst. Aber 2026 ist der Prompt nur noch ein Bruchteil dessen, was bestimmt, wie gut ein KI-System funktioniert. Der Rest ist Kontext.

Context Engineering ist das Gestalten von allem, was das Modell sieht: System Prompt, verfuegbare Tools, abgerufene Dokumente, Gedaechtnis aus frueheren Gespraechen und der Gespraechsverlauf. Nicht nur die Anweisung, sondern das Gesamtbild.

Context Engineering: alle Inputs, die ein KI-Modell erhaelt
Context Engineering betrifft das gesamte System, nicht nur den Prompt.

Warum das wichtig ist: Laut dem LangChain State of Agent Engineering Report haben 57% der Organisationen mittlerweile KI-Agents in Produktion. Aber 32% nennen Qualitaet als groesste Huerde. Und diese Qualitaetsprobleme kommen fast nie vom Modell selbst. Sie kommen von schlechtem Kontext: dem Modell fehlen Informationen, es bekommt irrelevante Dokumente, oder es hat keinen Zugriff auf die richtigen Tools.

In der Praxis bedeutet Context Engineering:

  • RAG (Retrieval-Augmented Generation) -- relevante Dokumente abrufen und dem Modell mitgeben, statt alles in den Prompt zu stopfen
  • Tool Definitions -- dem Modell mitteilen, welche Tools es nutzen kann (suchen, berechnen, APIs aufrufen) und wann
  • Gedaechtnis -- Informationen aus frueheren Gespraechen speichern, damit das Modell nicht jedes Mal bei null anfaengt
  • System Prompts -- feste Anweisungen, Verhaltensregeln und Domaenenwissen, die bei jeder Interaktion mitgegeben werden

Der Unterschied zwischen einem Chatbot, der "Entschuldigung, das weiss ich nicht" sagt, und einem, der deine Frage tatsaechlich beantwortet, liegt selten am Modell. Er liegt daran, ob jemand sich die Muehe gemacht hat, den richtigen Kontext verfuegbar zu machen.

Ein konkretes Beispiel: ein Kundenservice-Assistent. Mit nur einem Prompt bekommst du generische Antworten. Fuegst du RAG mit deiner Wissensdatenbank hinzu, Tool-Zugriff auf dein CRM und Gedaechtnis des laufenden Gespraechs, bekommst du einen Assistenten, der den Kunden beim Namen kennt, die Bestellhistorie nachschlagen und eine Retoure einplanen kann. Dasselbe Modell. Komplett andere Erfahrung.

Morgen loslegen

Drei Dinge, die du sofort umsetzen kannst:

  1. Teste deine Prompts mit dem "neuer Mitarbeiter"-Test. Gib deinen Prompt jemandem ohne Kontext. Wenn die Person nicht weiss, was zu tun ist, schreib den Prompt um.
  2. Strukturiere komplexe Prompts. Trenne Rolle, Anweisung, Daten und gewuenschtes Format. Nutze das Template aus diesem Artikel als Ausgangspunkt.
  3. Denk ueber den Prompt hinaus. Wenn du KI fuer einen Geschaeftsprozess einsetzt, stell dir die Frage: Welche Informationen fehlen dem Modell? Welche Tools sollte es haben? Da liegt der eigentliche Hebel.

Weiterlesen:

Willst du solche Techniken in deinem Unternehmen einsetzen? Meld dich bei uns -- wir helfen Teams, KI strukturiert und effektiv zu nutzen. Nicht als Spielzeug, sondern als Werkzeug.