Convertisseur de format de prompt
Convertissez vos prompts entre les formats OpenAI, Anthropic Claude, Google Gemini et d'autres fournisseurs IA
Collez un prompt au format OpenAI, Anthropic ou Google Gemini pour le convertir.
Détection automatique du format source. Gère les tableaux de messages, les system prompts et les correspondances de rôles.
Qu'est-ce qu'un convertisseur de format de prompt ?
Un convertisseur de format de prompt transforme les prompts IA entre les différentes structures JSON requises par les principaux fournisseurs d'IA — OpenAI, Anthropic Claude et Google Gemini. Bien que les trois fournisseurs utilisent des interfaces de chat basées sur les messages, leurs formats d'API diffèrent dans la structuration des messages, la gestion des system prompts et le nommage des rôles.
Migrer entre fournisseurs d'IA est de plus en plus courant à mesure que les équipes évaluent différents modèles en termes de coût, qualité et compromis de fonctionnalités. Reformater manuellement les templates de prompts est fastidieux et source d'erreurs, surtout pour les conversations complexes à plusieurs tours avec des system prompts. Ce convertisseur gère la transformation structurelle automatiquement, en mettant en évidence exactement ce qui a changé.
L'outil détecte automatiquement votre format source, convertit vers n'importe quel fournisseur cible et affiche des notes de conversion expliquant chaque transformation. Tout le traitement s'effectue dans votre navigateur — aucune donnée n'est envoyée à un serveur.
Comment utiliser ce convertisseur
- Collez votre prompt — Copiez le prompt JSON de votre code. Le convertisseur accepte les corps de requête API complets, les tableaux de messages ou toute structure de prompt JSON valide.
- Vérifiez le format détecté — L'outil détecte automatiquement si votre entrée est au format OpenAI, Anthropic ou Google et affiche un badge.
- Sélectionnez le format cible — Choisissez le fournisseur vers lequel vous souhaitez convertir dans le menu déroulant.
- Examinez la sortie — Le JSON converti apparaît avec un formatage correct. Consultez les notes de conversion sous la sortie pour comprendre ce qui a changé.
- Copiez et utilisez — Cliquez sur « Copier la sortie » pour copier le JSON formaté prêt à être utilisé dans l'API du fournisseur cible.
Différences clés entre les formats d'API IA
Placement du system prompt
La différence la plus significative entre les fournisseurs est l'emplacement du system prompt. OpenAI le place dans le tableau de messages comme un message avec `role: "system"`. Anthropic nécessite un champ `system` séparé au niveau supérieur. Google utilise `system_instruction` avec un tableau de parts. Mal placer le system prompt est la cause n°1 des erreurs de migration.
Structure des messages
OpenAI et Anthropic utilisent des structures de messages similaires avec des champs `role` et `content`. L'API Gemini de Google utilise `contents` (pluriel) avec une structure interne différente — chaque message a des `parts` (un tableau) au lieu d'une simple chaîne de contenu.
Nommage des rôles
OpenAI et Anthropic utilisent tous deux les rôles « user » et « assistant ». Google utilise « user » mais remplace « assistant » par « model ». C'est une différence subtile mais importante — utiliser « assistant » dans une requête API Gemini provoquera une erreur.
Paramètres obligatoires
Anthropic exige `max_tokens` dans chaque requête API — ce n'est pas optionnel. OpenAI utilise une limite par défaut spécifique au modèle. Google a une configuration de génération optionnelle. Le convertisseur ajoute automatiquement les paramètres obligatoires.
Scénarios de migration courants
- OpenAI vers Anthropic — Le chemin de migration le plus courant. Le system prompt sort du tableau de messages, max_tokens doit être ajouté explicitement.
- OpenAI vers Google — Nécessite de restructurer les messages au format contents/parts et de mapper le rôle assistant vers model.
- Anthropic vers OpenAI — Le system prompt revient dans le tableau de messages comme premier message. max_tokens devient optionnel.
- Support multi-fournisseurs — Les équipes construisant des applications agnostiques au fournisseur ont souvent besoin de maintenir des prompts dans plusieurs formats simultanément.
Questions Fréquentes
Quels formats ce convertisseur prend-il en charge ?
Le convertisseur prend en charge trois formats d'API IA majeurs : Chat Completions d'OpenAI (tableau de messages avec les rôles system/user/assistant), API Messages d'Anthropic (champ system séparé + tableau de messages) et Google Gemini (system_instruction + tableau de contents avec parts). Il accepte également les tableaux de messages simples sans wrapper de fournisseur.
Comment le convertisseur gère-t-il les system prompts ?
La gestion du system prompt est la principale différence entre les formats. OpenAI inclut les messages système dans le tableau de messages. Anthropic nécessite un champ « system » séparé en dehors des messages. Google utilise un objet « system_instruction » avec un tableau de parts. Le convertisseur déplace automatiquement les system prompts au bon emplacement pour chaque format cible.
Le convertisseur gère-t-il les définitions d'outils/fonctions ?
La version actuelle se concentre sur la conversion du format des messages — system prompts, messages utilisateur, réponses assistant et mapping des rôles. Pour la conversion de définitions d'outils/fonctions entre fournisseurs, utilisez notre linter de définitions de fonctions/outils qui valide les définitions pour les trois fournisseurs et met en évidence les différences de format.
Qu'est-ce que le rôle « model » dans le format Google Gemini ?
Google Gemini utilise « model » au lieu d'« assistant » pour les réponses de l'IA. Lors de la conversion d'OpenAI ou Anthropic vers Google, tous les rôles « assistant » sont automatiquement mappés vers « model ». Lors de la conversion de Google vers d'autres formats, « model » est remappé vers « assistant ». Le convertisseur gère cela automatiquement.
Pourquoi la sortie Anthropic inclut-elle max_tokens ?
L'API Messages d'Anthropic exige le paramètre « max_tokens » dans chaque requête — il n'est pas optionnel. Le convertisseur ajoute une valeur par défaut de 1024 pour garantir que la sortie est une requête API Anthropic valide. Vous devriez ajuster cette valeur en fonction de la longueur de réponse attendue avant de l'utiliser en production.
Outils associés
D'autres outils pour travailler avec les API IA :
- Constructeur de messages de conversation — Construisez visuellement des tableaux de messages de chat completion
- Évaluateur de risque d'hallucination IA — Analysez les patterns de risque de confabulation dans vos prompts
- Terrain de jeu des paramètres LLM — Expérimentez avec la température, le top-p et d'autres réglages de modèles
Outils associés
Évaluateur de risque d'hallucination IA
Évaluez le risque d'hallucination de vos prompts et obtenez des suggestions concrètes pour réduire la confabulation
Constructeur de messages de conversation
Construisez et testez des tableaux de messages pour le chat completion avec un éditeur visuel basé sur les rôles
Terrain de jeu des paramètres LLM
Expérimentez avec la température, le top-p, la pénalité de fréquence et d'autres paramètres LLM avec des explications visuelles