Validador de Datasets de Fine-Tuning
Valida datasets JSONL para fine-tuning de LLMs con detección de errores, conteo de tokens y estimación de costes
Pega un dataset JSONL arriba para validarlo para fine-tuning.
Soporta formatos OpenAI Chat, OpenAI Completions y Anthropic. Detecta errores, cuenta tokens y estima costes de fine-tuning.
¿Qué es un Validador de Datasets de Fine-Tuning?
Un validador de datasets de fine-tuning comprueba tus datos de entrenamiento en formato JSONL en busca de errores estructurales, campos faltantes e inconsistencias de formato antes de subirlos a la API de fine-tuning de un proveedor de IA. Detectar estos problemas localmente te ahorra entrenamientos fallidos, costes de cómputo desperdiciados y horas depurando mensajes de error crípticos de la API.
El fine-tuning te permite personalizar un modelo base con tus propios ejemplos — pero los datos de entrenamiento deben seguir un formato estricto. OpenAI requiere un array messages con roles system, user y assistant. Anthropic usa turnos alternos de human y assistant. Incluso una sola línea malformada puede hacer que el trabajo de entrenamiento completo falle.
Nuestro validador gratuito auto-detecta el formato, valida cada línea individualmente, cuenta tokens por ejemplo, estima costes de fine-tuning entre proveedores y te permite exportar solo los ejemplos válidos. Todo el procesamiento ocurre en tu navegador — tus datos de entrenamiento nunca salen de tu máquina.
Cómo Usar Esta Herramienta
Validar tu dataset de fine-tuning requiere solo unos pocos pasos:
- Pega tus datos JSONL o arrastra y suelta un archivo .jsonl en el área de entrada. Cada línea debe ser un objeto JSON válido.
- El validador auto-detecta el formato (OpenAI Chat, OpenAI Completions o Anthropic) y valida cada línea contra el esquema esperado.
- Configura el límite máximo de tokens por ejemplo usando el desplegable — los ejemplos que excedan este límite serán marcados con advertencias.
- Revisa las estadísticas de resumen: total de ejemplos, conteo de válidos/inválidos, estadísticas de tokens (media, mínimo, máximo, mediana) y costes estimados de fine-tuning.
- Comprueba los resultados de cada línea individual — los errores muestran exactamente qué está mal (roles faltantes, contenido vacío), las advertencias señalan violaciones del límite de tokens.
- Usa los botones de Copiar para exportar ejemplos válidos, estadísticas o el informe completo de validación.
Formatos de Fine-Tuning Compatibles
El validador soporta los tres formatos de datasets de fine-tuning más comunes:
Formato OpenAI Chat
El formato estándar para fine-tuning de modelos GPT. Cada ejemplo es un objeto JSON con un array messages que contiene objetos con los campos role (system, user o assistant) y content. Cada ejemplo debe incluir al menos un mensaje de user y uno de assistant.
Formato OpenAI Completions (Legacy)
El formato antiguo usa campos de texto prompt y completion. Aunque aún se soporta para algunos modelos, OpenAI recomienda migrar al formato de chat para todos los trabajos de fine-tuning nuevos.
Formato Anthropic
El formato de fine-tuning de Anthropic usa un array messages con roles human y assistant en turnos alternos. El validador comprueba que los roles alternen correctamente y que ningún mensaje tenga contenido vacío.
Entendiendo los Costes de Fine-Tuning
Los costes de fine-tuning se basan en el número total de tokens de entrenamiento de todos los ejemplos multiplicado por el precio de entrenamiento por token. El validador estima costes para todos los modelos que actualmente soportan fine-tuning, incluyendo GPT-4o, GPT-4o Mini y Mistral Small.
Los conteos de tokens mostrados son estimaciones basadas en una proporción de caracteres a tokens de aproximadamente 4:1 para texto en inglés. Los conteos reales pueden variar entre un 10-20% dependiendo del vocabulario y el contenido. Para conteos exactos, usa el tokenizador del proveedor después de la validación.
Preguntas Frecuentes
¿Esta herramienta sube mis datos a algún sitio?
No. Toda la validación ocurre completamente en tu navegador usando JavaScript. Tus datos de entrenamiento nunca salen de tu máquina — sin llamadas a APIs, sin procesamiento en servidor, sin almacenamiento de datos. Esto es especialmente importante para datasets de fine-tuning que a menudo contienen ejemplos propietarios o sensibles.
¿Qué tan precisas son las estimaciones de conteo de tokens?
El validador utiliza una aproximación de ~4 caracteres por token para texto en inglés. Esto es preciso dentro de un 10-20% para la mayoría del contenido. Para conteos exactos de tokens, usa la librería tiktoken de OpenAI o el tokenizador de Anthropic después de validar la estructura del dataset aquí.
¿Qué hace la configuración de límite máximo de tokens?
Establece el número máximo de tokens estimados por ejemplo de entrenamiento. Los ejemplos que excedan este límite se marcan con advertencias (no errores) porque pueden seguir siendo válidos pero podrían ser truncados durante el entrenamiento o rechazados por la API. Los límites comunes son 4.096 para GPT-4o Mini y 8.192 para fine-tuning de GPT-4o.
¿Puedo usar esto para formatos distintos a JSONL?
Actualmente, el validador solo soporta el formato JSONL (JSON Lines), que es el formato estándar requerido por OpenAI y Anthropic para fine-tuning. Cada línea debe ser un objeto JSON válido. CSV u otros formatos necesitan ser convertidos a JSONL primero.
¿Qué debería hacer con el informe de validación?
Corrige todos los errores (JSON inválido, campos faltantes, roles incorrectos) y revisa las advertencias (violaciones de límite de tokens). Usa el botón de Copiar Ejemplos Válidos para exportar solo las líneas correctas, luego re-valida el dataset limpio. Apunta a cero errores antes de subir a cualquier API de fine-tuning.
Herramientas Relacionadas
Explora más herramientas para tu flujo de trabajo de desarrollo con IA:
- Generador de JSON Schema para IA — Genera esquemas JSON para salidas estructuradas y function calling
- Calculadora de Costes de API de IA — Compara precios de APIs entre proveedores para elegir el mejor modelo para fine-tuning
- Constructor de Mensajes de Conversación — Construye y prueba arrays de mensajes de chat en el mismo formato usado para fine-tuning
Herramientas Relacionadas
Calculadora de Costes de API de IA
Calcula y compara costes entre proveedores de IA incluyendo OpenAI, Anthropic, Google, Mistral AI, xAI y más
Constructor de Mensajes de Conversación
Construye y prueba arrays de mensajes de chat completion con edición visual basada en roles
Generador de JSON Schema para IA
Genera JSON schemas a partir de datos de ejemplo optimizados para function calling y salidas estructuradas de IA