Prompt-Format-Konverter

Prompts zwischen OpenAI, Anthropic Claude, Google Gemini und anderen KI-Anbieterformaten konvertieren

~/prompt-format-converter

Fügen Sie einen Prompt im OpenAI-, Anthropic- oder Google-Gemini-Format ein, um ihn zu konvertieren.

Erkennt das Quellformat automatisch. Verarbeitet Nachrichtenarrays, System-Prompts und Rollenzuordnungen.

Was ist ein Prompt-Format-Konverter?

Ein Prompt-Format-Konverter wandelt KI-Prompts zwischen den verschiedenen JSON-Strukturen um, die von den großen KI-Anbietern benötigt werden — OpenAI, Anthropic Claude und Google Gemini. Obwohl alle drei Anbieter nachrichtenbasierte Chat-Schnittstellen verwenden, unterscheiden sich ihre API-Formate darin, wie sie Nachrichten strukturieren, System-Prompts behandeln und Rollen benennen.

Der Wechsel zwischen KI-Anbietern wird immer häufiger, da Teams verschiedene Modelle hinsichtlich Kosten, Qualität und Funktionsumfang evaluieren. Das manuelle Neuformatieren von Prompt-Vorlagen ist mühsam und fehleranfällig, besonders bei komplexen Konversationen mit mehreren Durchgängen und System-Prompts. Dieser Konverter übernimmt die strukturelle Transformation automatisch und hebt genau hervor, was sich geändert hat.

Das Werkzeug erkennt Ihr Quellformat automatisch, konvertiert zu jedem Zielanbieter und zeigt Konvertierungshinweise, die jede Transformation erklären. Die gesamte Verarbeitung findet in Ihrem Browser statt — keine Daten werden an einen Server gesendet.

So verwenden Sie diesen Konverter

  1. Prompt einfügen — Kopieren Sie den JSON-Prompt aus Ihrer Codebasis. Der Konverter akzeptiert vollständige API-Request-Bodies, Nachrichtenarrays oder jede gültige JSON-Prompt-Struktur.
  2. Erkanntes Format prüfen — Das Werkzeug erkennt automatisch, ob Ihre Eingabe im OpenAI-, Anthropic- oder Google-Format ist, und zeigt ein Kennzeichen an.
  3. Zielformat auswählen — Wählen Sie den Anbieter, zu dem Sie konvertieren möchten, aus dem Dropdown-Menü.
  4. Ausgabe prüfen — Das konvertierte JSON erscheint mit korrekter Formatierung. Prüfen Sie die Konvertierungshinweise unterhalb der Ausgabe, um zu verstehen, was sich geändert hat.
  5. Kopieren und verwenden — Klicken Sie auf «Ausgabe kopieren», um das formatierte JSON zu kopieren, bereit zur Verwendung in der API Ihres Zielanbieters.

Wichtige Unterschiede zwischen KI-API-Formaten

System-Prompt-Platzierung

Der bedeutendste Unterschied zwischen den Anbietern ist, wo der System-Prompt platziert wird. OpenAI fügt ihn in das Nachrichtenarray als Nachricht mit `role: "system"` ein. Anthropic erfordert ein separates `system`-Feld auf der obersten Ebene. Google verwendet `system_instruction` mit einem Parts-Array. Die falsche Platzierung des System-Prompts ist die häufigste Ursache für Migrationsfehler.

Nachrichtenstruktur

OpenAI und Anthropic verwenden ähnliche Nachrichtenstrukturen mit `role`- und `content`-Feldern. Googles Gemini API verwendet `contents` (Plural) mit einer anderen inneren Struktur — jede Nachricht hat `parts` (ein Array) statt einer einfachen Inhaltszeichenkette.

Rollenbezeichnungen

OpenAI und Anthropic verwenden beide die Rollen «user» und «assistant». Google verwendet «user», ersetzt aber «assistant» durch «model». Dies ist ein subtiler, aber wichtiger Unterschied — die Verwendung von «assistant» in einer Gemini-API-Anfrage verursacht einen Fehler.

Erforderliche Parameter

Anthropic erfordert `max_tokens` in jeder API-Anfrage — dieser Parameter ist nicht optional. OpenAI verwendet einen modellspezifischen Standardwert. Google hat eine optionale Generierungskonfiguration. Der Konverter fügt erforderliche Parameter automatisch hinzu.

Häufige Migrationsszenarien

  • OpenAI zu Anthropic — Häufigster Migrationspfad. System-Prompt wird aus dem Nachrichtenarray verschoben, max_tokens muss explizit hinzugefügt werden.
  • OpenAI zu Google — Erfordert Umstrukturierung der Nachrichten in das Contents/Parts-Format und Zuordnung von «assistant» auf «model».
  • Anthropic zu OpenAI — System-Prompt wird als erste Nachricht zurück in das Nachrichtenarray verschoben. max_tokens wird optional.
  • Multi-Anbieter-Unterstützung — Teams, die anbieterunabhängige Anwendungen erstellen, müssen Prompts häufig in mehreren Formaten gleichzeitig pflegen.

Häufig gestellte Fragen

Welche Formate unterstützt dieser Konverter?

Der Konverter unterstützt drei große KI-API-Formate: OpenAI Chat Completions (Nachrichtenarray mit System-/Benutzer-/Assistentenrollen), Anthropic Messages API (separates System-Feld + Nachrichtenarray) und Google Gemini (system_instruction + Contents-Array mit Parts). Er akzeptiert auch reine Nachrichtenarrays ohne Anbieter-Wrapper.

Wie behandelt der Konverter System-Prompts?

Die Behandlung von System-Prompts ist der Hauptunterschied zwischen den Formaten. OpenAI fügt System-Nachrichten in das Nachrichtenarray ein. Anthropic erfordert ein separates "system"-Feld außerhalb der Nachrichten. Google verwendet ein "system_instruction"-Objekt mit einem Parts-Array. Der Konverter verschiebt System-Prompts automatisch an die korrekte Position für jedes Zielformat.

Behandelt der Konverter Tool-/Funktionsdefinitionen?

Die aktuelle Version konzentriert sich auf die Konvertierung des Nachrichtenformats — System-Prompts, Benutzernachrichten, Assistentenantworten und Rollenzuordnungen. Für die Konvertierung von Tool-/Funktionsdefinitionen zwischen Anbietern verwenden Sie unseren Tool-/Funktionsdefinitions-Linter, der Definitionen über alle drei Anbieter hinweg validiert und Formatunterschiede hervorhebt.

Was ist die Rolle «model» im Google-Gemini-Format?

Google Gemini verwendet «model» statt «assistant» für KI-Antworten. Bei der Konvertierung von OpenAI oder Anthropic zum Google-Format werden alle «assistant»-Rollen automatisch auf «model» umgemappt. Bei der Konvertierung von Google zu anderen Formaten wird «model» wieder auf «assistant» zurückgemappt. Der Konverter behandelt dies automatisch.

Warum enthält die Anthropic-Ausgabe max_tokens?

Die Anthropic Messages API erfordert den Parameter "max_tokens" in jeder Anfrage — er ist nicht optional. Der Konverter fügt einen Standardwert von 1024 hinzu, um sicherzustellen, dass die Ausgabe eine gültige Anthropic-API-Anfrage ist. Sie sollten diesen Wert basierend auf Ihrer erwarteten Antwortlänge anpassen, bevor Sie ihn in der Produktion verwenden.

Verwandte Werkzeuge

Weitere Werkzeuge für die Arbeit mit KI-APIs:

Verwandte Werkzeuge