Planificateur de chaînes de prompts
Concevez des chaînes de prompts multi-étapes avec validation du flux de variables et export en code ou configuration JSON
⚠ "{{user_query}}" has no source (user input needed)
⚠ Output "{{search_terms}}" is not used by any later step
⚠ "{{context}}" has no source (user input needed)
⚠ "{{user_query}}" has no source (user input needed)
⚠ "{{context}}" has no source (user input needed)
[
{
"name": "Parse Query",
"prompt": "Extract the key search terms from: {{user_query}}",
"inputVars": [
"user_query"
],
"outputVar": "search_terms"
},
{
"name": "Generate Answer",
"prompt": "Using this context: {{context}}\n\nAnswer: {{user_query}}",
"inputVars": [
"context",
"user_query"
],
"outputVar": "answer"
},
{
"name": "Add Citations",
"prompt": "Add inline citations to this answer: {{answer}}\nSources: {{context}}",
"inputVars": [
"answer",
"context"
],
"outputVar": "cited_answer"
}
]Qu'est-ce qu'un planificateur de chaînes de prompts ?
Un planificateur de chaînes de prompts est un éditeur visuel pour concevoir des pipelines LLM multi-étapes. Au lieu de tout regrouper dans un seul prompt massif, vous décomposez les tâches complexes en une séquence d'étapes ciblées où la sortie de chaque étape alimente l'entrée de l'étape suivante. Cette approche — connue sous le nom de chaînage de prompts — améliore considérablement la fiabilité, la déboguabilité et la qualité des résultats.
Le chaînage de prompts est la façon dont les systèmes IA en production fonctionnent réellement. Les pipelines RAG analysent les requêtes, récupèrent le contexte et génèrent des réponses dans des étapes séparées. Les agents de code planifient, génèrent, révisent et corrigent en boucle. Les bots de support client classifient, routent, répondent et résument. Chaque étape peut utiliser un modèle différent optimisé pour cette tâche spécifique.
Notre planificateur vous permet de définir des étapes avec des templates de prompts, valide que les variables circulent correctement entre les étapes, signale les connexions manquantes et exporte l'intégralité de la chaîne en configuration JSON, code Python ou code TypeScript. Partagez vos chaînes via URL — aucun compte nécessaire.
Comment utiliser cet outil
Concevez votre chaîne de prompts en quelques étapes :
- Commencez avec une chaîne prédéfinie (Pipeline RAG, Résumé & Traduction, ou Classification & Routage) ou ajoutez des étapes de zéro.
- Cliquez sur Modifier sur n'importe quelle étape pour configurer son template de prompt, le nom de la variable de sortie et la préférence de modèle optionnelle.
- Utilisez des {{variables}} dans les templates de prompts — le planificateur détecte automatiquement les variables d'entrée et valide leurs sources.
- Vérifiez le résumé de validation : le vert signifie que toutes les variables ont des sources ; les avertissements indiquent les variables nécessitant une saisie utilisateur.
- Réorganisez les étapes avec les boutons fléchés. Les connexions de variables se mettent à jour automatiquement lorsque vous réorganisez.
- Exportez votre chaîne en configuration JSON (pour usage programmatique), squelette Python ou squelette TypeScript. Partagez via URL pour collaborer.
Pourquoi le chaînage de prompts fonctionne mieux
Les prompts monolithiques échouent à mesure que les tâches gagnent en complexité. Le chaînage de prompts résout ce problème en décomposant les tâches complexes en étapes gérables :
Meilleure qualité
Chaque étape se concentre sur une seule tâche, produisant des résultats plus fiables. Un classifieur qui ne doit produire qu'une étiquette de catégorie est bien plus fiable qu'un seul prompt qui doit classifier, récupérer le contexte, générer une réponse et la formater — le tout en une seule fois.
Débogage facilité
Quand quelque chose ne va pas dans une chaîne, vous pouvez inspecter la sortie de chaque étape indépendamment. La classification était-elle erronée ? Le contexte récupéré était-il non pertinent ? La génération était-elle décalée ? Les prompts uniques vous donnent une sortie opaque sans aucune visibilité sur le raisonnement intermédiaire.
Optimisation des modèles
Différentes étapes ont des exigences différentes. La classification nécessite de la rapidité, pas de l'intelligence — utilisez un modèle économique et rapide. La génération nécessite de la qualité — utilisez un modèle performant. Le résumé se situe entre les deux. Le chaînage vous permet d'utiliser le bon modèle pour chaque tâche, optimisant à la fois le coût et la qualité.
Logique conditionnelle
Les chaînes peuvent inclure des branches conditionnelles. Si le classifieur détecte un problème de facturation, il route vers le gestionnaire de facturation ; s'il s'agit d'un problème technique, il route vers le gestionnaire de support technique. Ce type de logique de routage est quasiment impossible dans un prompt unique, mais naturel dans une chaîne.
Patterns de chaînes courants
Ces patterns éprouvés sont inclus comme presets :
- Pipeline RAG — Analysez la requête utilisateur en termes de recherche, récupérez le contexte pertinent depuis une base de données vectorielle, générez une réponse ancrée dans le contexte récupéré et ajoutez des citations en ligne. Le pattern le plus courant pour les applications de base de connaissances.
- Résumé & Traduction — Extrayez les entités clés du texte brut, générez un résumé concis, puis traduisez dans la langue cible. Fonctionne bien pour les pipelines de traitement de contenu multilingue.
- Classification & Routage — Classifiez l'intention de l'utilisateur, routez vers le gestionnaire approprié avec le contexte pertinent, générez une réponse et créez un résumé de journal. Le pattern standard pour les bots de support client et l'automatisation des services d'assistance.
Questions Fréquentes
Que signifient les couleurs des variables ?
Les variables vertes proviennent de la sortie d'une étape précédente — elles sont automatiquement connectées. Les variables grises avec « ← utilisateur » indiquent qu'elles doivent être fournies comme entrée initiale par l'utilisateur, car aucune étape précédente ne les produit. Les surlignages rouges (dans la validation) indiquent des connexions cassées ou des noms de variables manquants.
Puis-je avoir des dépendances circulaires ?
Le planificateur utilise un flux strictement séquentiel — chaque étape ne peut référencer que les sorties des étapes précédentes, pas les siennes propres ni celles des étapes ultérieures. Cela empêche les dépendances circulaires par conception. Si vous avez besoin de boucles itératives (comme un cycle de révision et correction), modélisez-les comme des étapes linéaires séparées.
Comment implémenter le code exporté ?
Les exports Python et TypeScript génèrent du code squelette avec une fonction callLLM que vous devez implémenter avec le SDK du fournisseur de votre choix. La logique de la chaîne (passage de variables entre les étapes) est entièrement implémentée. Il suffit d'ajouter votre clé API, de remplir la fonction callLLM et d'exécuter.
Quelle est la différence entre ceci et le Prompt Builder ?
Le Prompt Builder crée un template unique avec des variables — un prompt, un appel LLM. Le planificateur de chaînes de prompts conçoit des workflows multi-étapes où chaque étape est un appel LLM séparé et les sorties circulent entre les étapes. Utilisez le Builder pour les prompts individuels, le planificateur de chaînes pour les pipelines.
Puis-je estimer le coût d'exécution de cette chaîne ?
Oui — utilisez notre outil calculateur de coûts d'agents IA. Concevez votre chaîne ici, notez les modèles et les comptages approximatifs de tokens pour chaque étape, puis saisissez-les dans le calculateur de coûts. Il vous montrera le coût par exécution et mensuel avec les multiplicateurs de surcoût pour les réessais et les appels d'outils.
Outils associés
Découvrez d'autres outils pour construire votre pipeline IA :
- Constructeur de templates de prompts — Créez des templates de prompts individuels avec des variables et un export de code
- Calculateur de coûts d'agents IA — Calculez le coût opérationnel d'exécution de votre chaîne de prompts
- Convertisseur de format de prompts — Convertissez le prompt de chaque étape entre les formats OpenAI, Anthropic et Google
Outils associés
Convertisseur de format de prompt
Convertissez vos prompts entre les formats OpenAI, Anthropic Claude, Google Gemini et d'autres fournisseurs IA
Calculateur de coûts d'agents IA
Modélisez le coût des workflows d'agents IA multi-étapes avec sélection de modèle par étape et multiplicateurs d'overhead
Constructeur de templates de prompt
Créez des templates de prompt avec des variables, remplissez-les dynamiquement et exportez en code pour n'importe quel fournisseur IA