Prompt-Chain-Planer
Entwerfen Sie mehrstufige Prompt-Ketten mit Variablenfluss-Validierung und Export als Code oder JSON-Konfiguration
⚠ "{{user_query}}" has no source (user input needed)
⚠ Output "{{search_terms}}" is not used by any later step
⚠ "{{context}}" has no source (user input needed)
⚠ "{{user_query}}" has no source (user input needed)
⚠ "{{context}}" has no source (user input needed)
[
{
"name": "Parse Query",
"prompt": "Extract the key search terms from: {{user_query}}",
"inputVars": [
"user_query"
],
"outputVar": "search_terms"
},
{
"name": "Generate Answer",
"prompt": "Using this context: {{context}}\n\nAnswer: {{user_query}}",
"inputVars": [
"context",
"user_query"
],
"outputVar": "answer"
},
{
"name": "Add Citations",
"prompt": "Add inline citations to this answer: {{answer}}\nSources: {{context}}",
"inputVars": [
"answer",
"context"
],
"outputVar": "cited_answer"
}
]Was ist ein Prompt-Chain-Planer?
Ein Prompt-Chain-Planer ist ein visueller Editor zum Entwerfen mehrstufiger LLM-Pipelines. Anstatt alles in einen einzigen massiven Prompt zu packen, zerlegen Sie komplexe Aufgaben in eine Abfolge fokussierter Schritte, bei denen die Ausgabe jedes Schritts als Eingabe für den nächsten Schritt dient. Dieser Ansatz — bekannt als Prompt Chaining — verbessert Zuverlässigkeit, Debuggbarkeit und Ausgabequalität erheblich.
Prompt Chaining ist die Arbeitsweise von KI-Systemen im Produktiveinsatz. RAG-Pipelines parsen Anfragen, rufen Kontext ab und generieren Antworten in separaten Schritten. Code-Agenten planen, generieren, reviewen und korrigieren in einer Schleife. Kundensupport-Bots klassifizieren, leiten weiter, antworten und fassen zusammen. Jeder Schritt kann ein anderes, für die jeweilige Aufgabe optimiertes Modell verwenden.
Unser Planer ermöglicht es Ihnen, Schritte mit Prompt-Templates zu definieren, validiert, dass Variablen korrekt zwischen den Schritten fließen, hebt fehlende Verbindungen hervor und exportiert die gesamte Chain als JSON-Konfiguration, Python-Code oder TypeScript-Code. Teilen Sie Chains per URL — kein Konto erforderlich.
So verwenden Sie dieses Tool
Entwerfen Sie Ihre Prompt Chain in wenigen Schritten:
- Beginnen Sie mit einer vordefinierten Chain (RAG-Pipeline, Zusammenfassen & Übersetzen oder Klassifizieren & Weiterleiten) oder fügen Sie Schritte von Grund auf hinzu.
- Klicken Sie bei einem beliebigen Schritt auf "Bearbeiten", um dessen Prompt-Template, den Namen der Ausgabevariable und eine optionale Modellpräferenz zu konfigurieren.
- Verwenden Sie {{Variablen}} in Prompt-Templates — der Planer erkennt automatisch Eingabevariablen und validiert deren Quellen.
- Überprüfen Sie die Validierungszusammenfassung: Grün bedeutet, dass alle Variablen Quellen haben; Warnungen zeigen Variablen an, die eine Benutzereingabe erfordern.
- Ordnen Sie Schritte mit den Pfeil-Buttons neu an. Variablenverbindungen werden beim Reorganisieren automatisch aktualisiert.
- Exportieren Sie Ihre Chain als JSON-Konfiguration (für programmatische Nutzung), Python-Skelett oder TypeScript-Skelett. Teilen Sie per URL zur Zusammenarbeit.
Warum Prompt Chaining besser funktioniert
Einzelne monolithische Prompts scheitern, wenn Aufgaben an Komplexität zunehmen. Prompt Chaining löst dieses Problem, indem komplexe Aufgaben in beherrschbare Schritte zerlegt werden:
Bessere Qualität
Jeder Schritt konzentriert sich auf eine Aufgabe und liefert zuverlässigere Ergebnisse. Ein Klassifikator, der nur ein Kategorielabel ausgeben muss, ist weitaus zuverlässiger als ein einzelner Prompt, der klassifizieren, Kontext abrufen, eine Antwort generieren und formatieren muss — alles auf einmal.
Einfacheres Debugging
Wenn in einer Chain etwas schiefgeht, können Sie die Ausgabe jedes Schritts einzeln überprüfen. War die Klassifikation falsch? War der abgerufene Kontext irrelevant? War die Generierung fehlerhaft? Einzelne Prompts liefern eine undurchsichtige Ausgabe ohne Einblick in die Zwischenschritte.
Modelloptimierung
Verschiedene Schritte haben unterschiedliche Anforderungen. Klassifikation benötigt Geschwindigkeit, nicht Intelligenz — verwenden Sie ein günstiges, schnelles Modell. Generierung benötigt Qualität — verwenden Sie ein leistungsfähiges Modell. Zusammenfassung liegt irgendwo dazwischen. Chaining ermöglicht es Ihnen, das richtige Modell für jede Aufgabe einzusetzen und sowohl Kosten als auch Qualität zu optimieren.
Bedingte Logik
Chains können bedingte Verzweigungen enthalten. Wenn der Klassifikator ein Abrechnungsproblem erkennt, wird an den Abrechnungs-Handler weitergeleitet; bei technischen Problemen an den technischen Support. Diese Art von Routing-Logik ist in einem einzelnen Prompt nahezu unmöglich, aber in einer Chain natürlich.
Gängige Chain-Muster
Diese bewährten Muster sind als Vorlagen enthalten:
- RAG-Pipeline — Die Benutzeranfrage in Suchbegriffe parsen, relevanten Kontext aus einer Vektordatenbank abrufen, eine auf dem abgerufenen Kontext basierende Antwort generieren und Inline-Zitate hinzufügen. Das häufigste Muster für Wissensdatenbank-Anwendungen.
- Zusammenfassen & Übersetzen — Schlüsselentitäten aus dem Rohtext extrahieren, eine prägnante Zusammenfassung erstellen und dann in die Zielsprache übersetzen. Funktioniert gut für mehrsprachige Inhaltsverarbeitungspipelines.
- Klassifizieren & Weiterleiten — Die Absicht des Benutzers klassifizieren, an den entsprechenden Handler mit relevantem Kontext weiterleiten, eine Antwort generieren und eine Log-Zusammenfassung erstellen. Das Standardmuster für Kundensupport-Bots und Helpdesk-Automatisierung.
Häufig gestellte Fragen
Was bedeuten die Variablenfarben?
Grüne Variablen stammen aus der Ausgabe eines vorherigen Schritts — sie sind automatisch verbunden. Graue Variablen mit '← Benutzer' zeigen an, dass sie als initiale Benutzereingabe bereitgestellt werden müssen, da kein vorheriger Schritt sie erzeugt. Rote Hervorhebungen (in der Validierung) weisen auf unterbrochene Verbindungen oder fehlende Variablennamen hin.
Kann es zirkuläre Abhängigkeiten geben?
Der Planer verwendet einen strikt sequenziellen Ablauf — jeder Schritt kann nur auf Ausgaben vorheriger Schritte verweisen, nicht auf sich selbst oder spätere Schritte. Dies verhindert zirkuläre Abhängigkeiten durch das Design. Wenn Sie iterative Schleifen benötigen (wie einen Review-und-Fix-Zyklus), modellieren Sie diese als separate lineare Schritte.
Wie implementiere ich den exportierten Code?
Die Python- und TypeScript-Exporte generieren Skelett-Code mit einer callLLM-Funktion, die Sie mit dem SDK Ihres gewählten Anbieters implementieren müssen. Die Chain-Logik (Variablenübergabe zwischen Schritten) ist vollständig implementiert. Fügen Sie einfach Ihren API-Key hinzu, implementieren Sie die callLLM-Funktion und führen Sie den Code aus.
Was ist der Unterschied zwischen diesem Tool und dem Prompt Builder?
Der Prompt Builder erstellt eine einzelne Vorlage mit Variablen — ein Prompt, ein LLM-Aufruf. Der Prompt-Chain-Planer entwirft mehrstufige Workflows, bei denen jeder Schritt ein separater LLM-Aufruf ist und die Ausgaben zwischen den Schritten fließen. Verwenden Sie den Builder für einzelne Prompts und den Chain-Planer für Pipelines.
Kann ich die Kosten für die Ausführung dieser Chain schätzen?
Ja — verwenden Sie unser KI-Agenten-Kostenrechner-Tool. Entwerfen Sie hier Ihre Chain, notieren Sie die Modelle und ungefähren Token-Mengen für jeden Schritt, und geben Sie diese dann in den Kostenrechner ein. Er zeigt Ihnen die Kosten pro Durchlauf und monatlich mit Overhead-Multiplikatoren für Wiederholungsversuche und Tool-Calls.
Verwandte Werkzeuge
Entdecken Sie weitere Werkzeuge zum Erstellen Ihrer KI-Pipeline:
- Prompt-Template-Builder — Einzelne Prompt-Vorlagen mit Variablen und Code-Export erstellen
- KI-Agenten-Kostenrechner — Die Betriebskosten für die Ausführung Ihrer Prompt Chain berechnen
- Prompt-Format-Konverter — Den Prompt jedes Schritts zwischen OpenAI-, Anthropic- und Google-Formaten konvertieren
Verwandte Werkzeuge
Prompt-Format-Konverter
Prompts zwischen OpenAI, Anthropic Claude, Google Gemini und anderen KI-Anbieterformaten konvertieren
KI-Agenten-Kostenrechner
Modellieren Sie die Kosten von mehrstufigen KI-Agenten-Workflows mit Modellauswahl pro Schritt und Overhead-Multiplikatoren
Prompt-Template-Builder
Erstellen Sie Prompt-Templates mit Variablen, füllen Sie sie dynamisch aus und exportieren Sie als Code für jeden KI-Anbieter