Planejador de Cadeias de Prompts

Projete cadeias de prompts multi-passo com validação de fluxo de variáveis e exportação como código ou configuração JSON

~/prompt-chain
Cadeias:
1Parse Query
In:{{user_query}} ← userOut:search_terms

⚠ "{{user_query}}" has no source (user input needed)

⚠ Output "{{search_terms}}" is not used by any later step

search_terms
2Generate Answer
In:{{context}} ← user{{user_query}} ← userOut:answer

⚠ "{{context}}" has no source (user input needed)

⚠ "{{user_query}}" has no source (user input needed)

answer
3Add Citations
In:{{answer}}{{context}} ← userOut:cited_answer

⚠ "{{context}}" has no source (user input needed)

✓ Todas as variáveis conectadas⚠ 5 warning(s)
[
  {
    "name": "Parse Query",
    "prompt": "Extract the key search terms from: {{user_query}}",
    "inputVars": [
      "user_query"
    ],
    "outputVar": "search_terms"
  },
  {
    "name": "Generate Answer",
    "prompt": "Using this context: {{context}}\n\nAnswer: {{user_query}}",
    "inputVars": [
      "context",
      "user_query"
    ],
    "outputVar": "answer"
  },
  {
    "name": "Add Citations",
    "prompt": "Add inline citations to this answer: {{answer}}\nSources: {{context}}",
    "inputVars": [
      "answer",
      "context"
    ],
    "outputVar": "cited_answer"
  }
]

O que é um Planejador de Cadeia de Prompts?

Um planejador de cadeia de prompts é um editor visual para projetar pipelines LLM multi-etapa. Em vez de colocar tudo em um único prompt massivo, você divide tarefas complexas em uma sequência de etapas focadas onde a saída de cada etapa alimenta a entrada da próxima. Esta abordagem — conhecida como prompt chaining — melhora dramaticamente a confiabilidade, a depurabilidade e a qualidade da saída.

Prompt chaining é como sistemas de IA em produção realmente funcionam. Pipelines RAG analisam consultas, recuperam contexto e geram respostas em etapas separadas. Agentes de código planejam, geram, revisam e corrigem em um loop. Bots de suporte ao cliente classificam, roteiam, respondem e resumem. Cada etapa pode usar um modelo diferente otimizado para aquela tarefa específica.

Nosso planejador permite definir etapas com templates de prompt, valida que as variáveis fluem corretamente entre etapas, destaca conexões ausentes e exporta toda a cadeia como configuração JSON, código Python ou código TypeScript. Compartilhe cadeias via URL — sem necessidade de conta.

Como Usar Esta Ferramenta

Projete sua cadeia de prompts em poucos passos:

  1. Comece com uma cadeia predefinida (Pipeline RAG, Resumir e Traduzir, ou Classificar e Rotear) ou adicione etapas do zero.
  2. Clique em Editar em qualquer etapa para configurar seu template de prompt, nome da variável de saída e preferência opcional de modelo.
  3. Use {{variáveis}} nos templates de prompt — o planejador detecta automaticamente variáveis de entrada e valida suas fontes.
  4. Verifique o resumo de validação: verde significa que todas as variáveis têm fontes; avisos indicam variáveis que precisam de entrada do usuário.
  5. Reordene as etapas usando os botões de seta. As conexões de variáveis são atualizadas automaticamente conforme você reorganiza.
  6. Exporte sua cadeia como Configuração JSON (para uso programático), esqueleto Python ou esqueleto TypeScript. Compartilhe via URL para colaboração.

Por que Prompt Chaining Funciona Melhor

Prompts monolíticos únicos falham conforme as tarefas crescem em complexidade. Prompt chaining resolve isso decompondo tarefas complexas em etapas gerenciáveis:

Melhor Qualidade

Cada etapa foca em uma tarefa, produzindo saídas mais confiáveis. Um classificador que só precisa gerar um rótulo de categoria é muito mais confiável do que um único prompt que deve classificar, recuperar contexto, gerar uma resposta e formatá-la — tudo de uma vez.

Depuração Mais Fácil

Quando algo dá errado em uma cadeia, você pode inspecionar a saída de cada etapa independentemente. A classificação estava errada? O contexto recuperado era irrelevante? A geração ficou ruim? Prompts únicos dão uma saída opaca sem visibilidade do raciocínio intermediário.

Otimização de Modelos

Diferentes etapas têm diferentes requisitos. Classificação precisa de velocidade, não inteligência — use um modelo barato e rápido. Geração precisa de qualidade — use um modelo capaz. Sumarização fica no meio-termo. O chaining permite usar o modelo certo para cada tarefa, otimizando tanto custo quanto qualidade.

Lógica Condicional

Cadeias podem incluir ramificações condicionais. Se o classificador detecta um problema de faturamento, roteie para o handler de faturamento; se é técnico, roteie para o handler de suporte técnico. Esse tipo de lógica de roteamento é praticamente impossível em um único prompt, mas natural em uma cadeia.

Padrões Comuns de Cadeia

Estes padrões comprovados estão incluídos como presets:

  • Pipeline RAG — Analise a consulta do usuário em termos de busca, recupere contexto relevante de um banco de dados vetorial, gere uma resposta fundamentada no contexto recuperado e adicione citações inline. O padrão mais comum para aplicações de base de conhecimento.
  • Resumir e Traduzir — Extraia entidades-chave do texto bruto, gere um resumo conciso e depois traduza para o idioma de destino. Funciona bem para pipelines de processamento de conteúdo multilíngue.
  • Classificar e Rotear — Classifique a intenção do usuário, roteie para o handler apropriado com contexto relevante, gere uma resposta e crie um resumo de log. O padrão standard para bots de suporte ao cliente e automação de help desk.

Perguntas Frequentes

O que significam as cores das variáveis?

Variáveis verdes vêm da saída de uma etapa anterior — elas estão automaticamente conectadas. Variáveis cinzas com '← user' indicam que precisam ser fornecidas como entrada inicial do usuário, já que nenhuma etapa anterior as produz. Destaques vermelhos (na validação) indicam conexões quebradas ou nomes de variáveis ausentes.

Posso ter dependências circulares?

O planejador usa um fluxo estritamente sequencial — cada etapa só pode referenciar saídas de etapas anteriores, não de si mesma ou de etapas posteriores. Isso previne dependências circulares por design. Se você precisa de loops iterativos (como um ciclo de revisão e correção), modele-os como etapas lineares separadas.

Como implemento o código exportado?

As exportações em Python e TypeScript geram código esqueleto com uma função callLLM que você precisa implementar com o SDK do provedor escolhido. A lógica da cadeia (passagem de variáveis entre etapas) está totalmente implementada. Basta adicionar sua API key, preencher a função callLLM e executar.

Qual é a diferença entre esta ferramenta e o Construtor de Prompts?

O Construtor de Prompts cria um único template com variáveis — um prompt, uma chamada LLM. O Planejador de Cadeia de Prompts projeta fluxos de trabalho multi-etapa onde cada etapa é uma chamada LLM separada e as saídas fluem entre etapas. Use o Construtor para prompts individuais, o Planejador de Cadeia para pipelines.

Posso estimar o custo de executar esta cadeia?

Sim — use nossa ferramenta Calculadora de Custos de Agentes de IA. Projete sua cadeia aqui, anote os modelos e contagens aproximadas de tokens para cada etapa, depois insira-os na calculadora de custos. Ela mostrará o custo por execução e mensal com multiplicadores de overhead para retentativas e tool calls.

Ferramentas Relacionadas

Explore mais ferramentas para construir seu pipeline de IA:

Ferramentas Relacionadas