Conversor de Formato de Prompt
Converta prompts entre os formatos OpenAI, Anthropic Claude, Google Gemini e outros provedores de IA
Cole um prompt no formato OpenAI, Anthropic ou Google Gemini para convertê-lo.
Detecta automaticamente o formato de origem. Lida com arrays de mensagens, system prompts e mapeamentos de papéis.
O que é um Conversor de Formato de Prompt?
Um conversor de formato de prompt transforma prompts de IA entre as diferentes estruturas JSON exigidas pelos principais provedores de IA — OpenAI, Anthropic Claude e Google Gemini. Embora todos os três provedores usem interfaces de chat baseadas em mensagens, seus formatos de API diferem em como estruturam mensagens, tratam system prompts e nomeiam papéis.
Migrar entre provedores de IA é cada vez mais comum conforme equipes avaliam diferentes modelos por custo, qualidade e trade-offs de funcionalidades. Reformatar manualmente templates de prompt é tedioso e propenso a erros, especialmente para conversas complexas de múltiplos turnos com system prompts. Este conversor lida com a transformação estrutural automaticamente, destacando exatamente o que mudou.
A ferramenta detecta automaticamente seu formato de origem, converte para qualquer provedor de destino e mostra notas de conversão explicando cada transformação. Todo o processamento acontece no seu navegador — nenhum dado é enviado a qualquer servidor.
Como Usar Este Conversor
- Cole seu prompt — Copie o JSON do prompt do seu código. O conversor aceita corpos completos de requisição de API, arrays de mensagens ou qualquer estrutura JSON de prompt válida.
- Verifique o formato detectado — A ferramenta detecta automaticamente se sua entrada está no formato OpenAI, Anthropic ou Google e exibe um indicador.
- Selecione o formato de destino — Escolha o provedor para o qual deseja converter no menu dropdown.
- Revise a saída — O JSON convertido aparece com formatação adequada. Verifique as notas de conversão abaixo da saída para entender o que mudou.
- Copie e use — Clique em "Copiar Saída" para copiar o JSON formatado pronto para uso na API do provedor de destino.
Principais Diferenças Entre Formatos de API de IA
Posicionamento do System Prompt
A diferença mais significativa entre provedores é onde o system prompt fica. A OpenAI o coloca no array de mensagens como uma mensagem com `role: "system"`. A Anthropic requer um campo `system` separado no nível superior. O Google usa `system_instruction` com um array de partes. Posicionar incorretamente o system prompt é a causa #1 de erros de migração.
Estrutura de Mensagens
OpenAI e Anthropic usam estruturas de mensagens similares com campos `role` e `content`. A API Gemini do Google usa `contents` (plural) com uma estrutura interna diferente — cada mensagem tem `parts` (um array) em vez de uma simples string de conteúdo.
Nomeação de Papéis
OpenAI e Anthropic ambos usam papéis "user" e "assistant". O Google usa "user" mas substitui "assistant" por "model". Esta é uma diferença sutil mas importante — usar "assistant" em uma requisição à API Gemini causará um erro.
Parâmetros Obrigatórios
A Anthropic requer `max_tokens` em toda requisição de API — não é opcional. A OpenAI usa um limite padrão específico do modelo. O Google tem configuração de geração opcional. O conversor adiciona parâmetros obrigatórios automaticamente.
Cenários Comuns de Migração
- OpenAI para Anthropic — Caminho de migração mais comum. O system prompt sai do array de mensagens, max_tokens deve ser adicionado explicitamente.
- OpenAI para Google — Requer reestruturar mensagens para o formato contents/parts e mapear o papel assistant para model.
- Anthropic para OpenAI — O system prompt volta ao array de mensagens como a primeira mensagem. max_tokens se torna opcional.
- Suporte multi-provedor — Equipes construindo aplicações agnósticas de provedor frequentemente precisam manter prompts em múltiplos formatos simultaneamente.
Perguntas Frequentes
Quais formatos este conversor suporta?
O conversor suporta três formatos principais de API de IA: Chat Completions da OpenAI (array de mensagens com papéis system/user/assistant), API Messages da Anthropic (campo system separado + array de mensagens) e Google Gemini (system_instruction + array contents com parts). Ele também aceita arrays de mensagens simples sem wrapper de provedor.
Como o conversor lida com system prompts?
O tratamento do system prompt é a principal diferença entre formatos. A OpenAI inclui mensagens system no array de mensagens. A Anthropic requer um campo "system" separado fora das mensagens. O Google usa um objeto "system_instruction" com um array de parts. O conversor move automaticamente os system prompts para a localização correta de cada formato de destino.
O conversor lida com definições de tool/function?
A versão atual foca na conversão de formato de mensagens — system prompts, mensagens de usuário, respostas do assistente e mapeamentos de papéis. Para conversão de definições de tool/function entre provedores, use nosso Linter de Definição de Ferramentas/Funções que valida definições em todos os três provedores e destaca diferenças de formato.
O que é o papel "model" no formato Google Gemini?
O Google Gemini usa "model" em vez de "assistant" para respostas de IA. Ao converter de OpenAI ou Anthropic para o formato Google, todos os papéis "assistant" são automaticamente mapeados para "model". Ao converter do Google para outros formatos, "model" é mapeado de volta para "assistant". O conversor lida com isso automaticamente.
Por que a saída da Anthropic inclui max_tokens?
A API Messages da Anthropic requer o parâmetro "max_tokens" em toda requisição — não é opcional. O conversor adiciona um valor padrão de 1024 para garantir que a saída seja uma requisição válida para a API da Anthropic. Você deve ajustar este valor com base no comprimento esperado da resposta antes de usá-lo em produção.
Ferramentas Relacionadas
Mais ferramentas para trabalhar com APIs de IA:
- Construtor de Mensagens de Conversa — Construa visualmente arrays de mensagens de chat completion
- Avaliador de Risco de Alucinação de IA — Analise prompts quanto a padrões de risco de confabulação
- Playground de Parâmetros de LLM — Experimente com temperature, top-p e outras configurações de modelo
Ferramentas Relacionadas
Avaliador de Risco de Alucinação de IA
Avalie prompts quanto ao risco de alucinação e receba sugestões práticas para reduzir confabulação
Construtor de Mensagens de Conversa
Construa e teste arrays de mensagens de chat completion com edição visual baseada em papéis
Playground de Parâmetros de LLM
Experimente com temperature, top-p, frequency penalty e outros parâmetros de LLM com explicações visuais