Planificador de Cadenas de Prompts
Diseña cadenas de prompts multi-paso con validación de flujo de variables y exportación como código o configuración JSON
⚠ "{{user_query}}" has no source (user input needed)
⚠ Output "{{search_terms}}" is not used by any later step
⚠ "{{context}}" has no source (user input needed)
⚠ "{{user_query}}" has no source (user input needed)
⚠ "{{context}}" has no source (user input needed)
[
{
"name": "Parse Query",
"prompt": "Extract the key search terms from: {{user_query}}",
"inputVars": [
"user_query"
],
"outputVar": "search_terms"
},
{
"name": "Generate Answer",
"prompt": "Using this context: {{context}}\n\nAnswer: {{user_query}}",
"inputVars": [
"context",
"user_query"
],
"outputVar": "answer"
},
{
"name": "Add Citations",
"prompt": "Add inline citations to this answer: {{answer}}\nSources: {{context}}",
"inputVars": [
"answer",
"context"
],
"outputVar": "cited_answer"
}
]¿Qué es un Planificador de Cadenas de Prompts?
Un planificador de cadenas de prompts es un editor visual para diseñar pipelines LLM multi-paso. En lugar de meter todo en un único prompt masivo, divides tareas complejas en una secuencia de pasos enfocados donde la salida de cada paso alimenta la entrada del siguiente. Este enfoque — conocido como prompt chaining — mejora drásticamente la fiabilidad, la depurabilidad y la calidad de la salida.
El prompt chaining es cómo funcionan realmente los sistemas de IA en producción. Los pipelines RAG analizan consultas, recuperan contexto y generan respuestas en pasos separados. Los agentes de código planifican, generan, revisan y corrigen en un bucle. Los bots de soporte al cliente clasifican, enrutan, responden y resumen. Cada paso puede usar un modelo diferente optimizado para esa tarea específica.
Nuestro planificador te permite definir pasos con plantillas de prompts, valida que las variables fluyan correctamente entre pasos, resalta conexiones faltantes y exporta toda la cadena como configuración JSON, código Python o código TypeScript. Comparte cadenas mediante URL — sin necesidad de cuenta.
Cómo Usar Esta Herramienta
Diseña tu cadena de prompts en unos pocos pasos:
- Empieza con una cadena predefinida (Pipeline RAG, Resumir y Traducir, o Clasificar y Enrutar) o añade pasos desde cero.
- Haz clic en Editar en cualquier paso para configurar su plantilla de prompt, nombre de variable de salida y preferencia de modelo opcional.
- Usa {{variables}} en las plantillas de prompts — el planificador auto-detecta las variables de entrada y valida sus fuentes.
- Revisa el resumen de validación: verde significa que todas las variables tienen fuentes; las advertencias indican variables que necesitan entrada del usuario.
- Reordena los pasos usando los botones de flechas. Las conexiones de variables se actualizan automáticamente al reorganizar.
- Exporta tu cadena como Configuración JSON (para uso programático), esqueleto Python o esqueleto TypeScript. Comparte mediante URL para colaboración.
Por Qué el Prompt Chaining Funciona Mejor
Los prompts monolíticos únicos fallan a medida que las tareas crecen en complejidad. El prompt chaining resuelve esto descomponiendo tareas complejas en pasos manejables:
Mejor Calidad
Cada paso se enfoca en una sola tarea, produciendo salidas más fiables. Un clasificador que solo necesita generar una etiqueta de categoría es mucho más fiable que un único prompt que debe clasificar, recuperar contexto, generar una respuesta y formatearla — todo a la vez.
Depuración Más Fácil
Cuando algo sale mal en una cadena, puedes inspeccionar la salida de cada paso independientemente. ¿Fue la clasificación incorrecta? ¿Fue irrelevante el contexto recuperado? ¿Fue la generación deficiente? Los prompts únicos te dan una salida opaca sin visibilidad del razonamiento intermedio.
Optimización de Modelos
Los diferentes pasos tienen diferentes requisitos. La clasificación necesita velocidad, no inteligencia — usa un modelo económico y rápido. La generación necesita calidad — usa un modelo capaz. El resumen está en un punto intermedio. El chaining te permite usar el modelo adecuado para cada trabajo, optimizando tanto coste como calidad.
Lógica Condicional
Las cadenas pueden incluir ramas condicionales. Si el clasificador detecta un problema de facturación, enruta al manejador de facturación; si es técnico, enruta al manejador de soporte técnico. Este tipo de lógica de enrutamiento es casi imposible en un único prompt pero natural en una cadena.
Patrones Comunes de Cadenas
Estos patrones probados están incluidos como presets:
- Pipeline RAG — Analiza la consulta del usuario en términos de búsqueda, recupera contexto relevante de una base de datos vectorial, genera una respuesta fundamentada en el contexto recuperado y añade citas en línea. El patrón más común para aplicaciones de base de conocimiento.
- Resumir y Traducir — Extrae entidades clave del texto en bruto, genera un resumen conciso y luego traduce al idioma de destino. Funciona bien para pipelines de procesamiento de contenido multilingüe.
- Clasificar y Enrutar — Clasifica la intención del usuario, enruta al manejador apropiado con contexto relevante, genera una respuesta y crea un resumen de registro. El patrón estándar para bots de soporte al cliente y automatización de help desk.
Preguntas Frecuentes
¿Qué significan los colores de las variables?
Las variables verdes provienen de la salida de un paso anterior — están conectadas automáticamente. Las variables grises con '← user' indican que necesitan ser proporcionadas como entrada inicial del usuario ya que ningún paso anterior las produce. Los resaltados en rojo (en validación) indican conexiones rotas o nombres de variables faltantes.
¿Puedo tener dependencias circulares?
El planificador usa un flujo estrictamente secuencial — cada paso solo puede referenciar salidas de pasos anteriores, no de sí mismo ni de pasos posteriores. Esto previene dependencias circulares por diseño. Si necesitas bucles iterativos (como un ciclo de revisión y corrección), modélalos como pasos lineales separados.
¿Cómo implemento el código exportado?
Las exportaciones de Python y TypeScript generan código esqueleto con una función callLLM que necesitas implementar con el SDK de tu proveedor elegido. La lógica de la cadena (paso de variables entre pasos) está completamente implementada. Solo añade tu API key, completa la función callLLM y ejecútalo.
¿Cuál es la diferencia entre esto y el Prompt Builder?
El Prompt Builder crea una única plantilla con variables — un prompt, una llamada al LLM. El Planificador de Cadenas de Prompts diseña flujos de trabajo multi-paso donde cada paso es una llamada separada al LLM y las salidas fluyen entre pasos. Usa el Builder para prompts individuales, el Planificador de Cadenas para pipelines.
¿Puedo estimar el coste de ejecutar esta cadena?
Sí — usa nuestra herramienta Calculadora de Costes de Agentes de IA. Diseña tu cadena aquí, anota los modelos y los conteos aproximados de tokens para cada paso, luego introdúcelos en la calculadora de costes. Te mostrará el coste por ejecución y mensual con multiplicadores de sobrecarga para reintentos y llamadas a herramientas.
Herramientas Relacionadas
Explora más herramientas para construir tu pipeline de IA:
- Constructor de Plantillas de Prompts — Construye plantillas de prompts individuales con variables y exportación de código
- Calculadora de Costes de Agentes de IA — Calcula el coste operativo de ejecutar tu cadena de prompts
- Conversor de Formato de Prompts — Convierte el prompt de cada paso entre formatos de OpenAI, Anthropic y Google
Herramientas Relacionadas
Conversor de Formato de Prompt
Convierte prompts entre formatos de OpenAI, Anthropic Claude, Google Gemini y otros proveedores de IA
Calculadora de Costes de Agentes de IA
Modela el coste de workflows de agentes de IA multi-paso con selección de modelo por paso y multiplicadores de overhead
Constructor de Plantillas de Prompt
Crea plantillas de prompt con variables, rellénalas dinámicamente y exporta como código para cualquier proveedor de IA