Playground de Parámetros LLM
Experimenta con temperature, top-p, frequency penalty y otros parámetros de LLM con explicaciones visuales
Preajustes
ⓘ
Controla la aleatoriedad en la salida. Valores más altos hacen la salida más creativa/aleatoria, valores más bajos la hacen más enfocada/determinista.
Creativo — salidas más diversas y sorprendentes
ⓘ
Limita la selección de tokens a una probabilidad acumulada. Valores más bajos restringen a tokens de mayor probabilidad. Alternativa a temperature.
Sin restricción — vocabulario completo considerado
ⓘ
Penaliza tokens según la frecuencia con la que aparecen en la salida actual. Valores positivos reducen la repetición.
Neutral — patrones de repetición naturales
ⓘ
Penaliza tokens que hayan aparecido en la salida. Anima al modelo a hablar sobre temas nuevos.
Neutral — flujo temático natural
ⓘ
Número máximo de tokens a generar en la respuesta. Un token equivale aproximadamente a 4 caracteres o ¾ de una palabra.
~3072 palabras
JSON de Configuración
{
"temperature": 1,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0,
"max_tokens": 4096
}¿Qué es un Playground de Parámetros LLM?
Un playground de parámetros LLM te permite experimentar con los ajustes que controlan cómo los modelos de lenguaje generan texto — temperature, top-p (muestreo nucleus), frequency penalty, presence penalty, max tokens y más. Estos parámetros afectan drásticamente la calidad, creatividad y consistencia de la salida, pero sus interacciones a menudo se malinterpretan.
La mayoría de los desarrolladores empiezan con los valores de parámetros por defecto y nunca los ajustan. Esto funciona para casos de uso básicos, pero ajustar los parámetros para tu tarea específica puede marcar la diferencia entre un chatbot que se siente robótico y uno que se siente natural, o entre una generación de código fiable y código lleno de sintaxis creativa pero rota.
Nuestro playground gratuito proporciona visualizaciones interactivas de cada parámetro, mostrando cómo afectan a la distribución de probabilidad de la selección del siguiente token del modelo. Ajusta deslizadores, observa retroalimentación visual en tiempo real, experimenta con preajustes para casos de uso comunes y exporta tu configuración como JSON listo para la API. Todo el procesamiento ocurre en tu navegador sin enviar datos a ningún servidor.
Cómo Usar Este Playground
Explorar los parámetros LLM es intuitivo:
- Empieza con un preajuste — Elige entre preajustes optimizados para tareas comunes: preciso (código, Q&A factual), equilibrado (conversación general), creativo (escritura, lluvia de ideas) o máxima diversidad (generación de ideas). Cada preajuste establece todos los parámetros en valores recomendados.
- Ajusta parámetros individuales — Usa los deslizadores para modificar cada parámetro. La visualización se actualiza en tiempo real para mostrar cómo cambia la distribución de probabilidad. Pasa el ratón sobre cualquier nombre de parámetro para una explicación detallada.
- Observa la visualización de probabilidad — El gráfico interactivo muestra una distribución de probabilidad de tokens simulada, ilustrando cómo tus elecciones de parámetros afectan a qué tokens es probable que seleccione el modelo. Esto hace que conceptos abstractos como "muestreo nucleus" sean visualmente concretos.
- Compara configuraciones — Guarda múltiples configuraciones y compáralas lado a lado para entender cómo los cambios de parámetros afectan a las características de la salida.
- Exporta tu configuración — Copia tus parámetros como un objeto JSON formateado para las APIs de OpenAI, Anthropic o Google. La configuración exportada está lista para pegar directamente en tu código.
Entendiendo Cada Parámetro
Cada parámetro controla un aspecto diferente de la generación de texto. Comprenderlos individualmente y en combinación es clave para obtener las salidas que deseas.
Temperature (0.0 - 2.0)
Temperature es el parámetro más importante para controlar la aleatoriedad. Escala los logits (predicciones crudas del modelo) antes de que la función softmax los convierta en probabilidades. Con temperature=0, el modelo siempre elige el token más probable — las salidas son deterministas y repetitivas. Con temperature=1.0 (por defecto), se usa la distribución de probabilidad original. Con temperature=2.0, la distribución es casi plana — casi cualquier token podría seleccionarse, lo que lleva a salidas altamente creativas pero a menudo incoherentes.
Top-p / Muestreo Nucleus (0.0 - 1.0)
Top-p filtra el conjunto de selección de tokens por probabilidad acumulada. Con top_p=0.1, solo se consideran los tokens que juntos representan el 10% superior de masa de probabilidad. Con top_p=1.0 (por defecto), todos los tokens son elegibles. Top-p es útil porque se adapta dinámicamente — cuando el modelo está seguro (un token tiene el 90% de probabilidad), top_p=0.95 sigue seleccionando de forma determinista. Cuando el modelo no está seguro, el mismo ajuste permite más diversidad.
Frequency Penalty (-2.0 a 2.0)
Frequency penalty reduce la probabilidad de tokens que ya han aparecido en la salida, proporcional a cuántas veces aparecieron. Un valor de 0.5 desincentiva moderadamente la repetición. Valores más altos (1.0-2.0) penalizan fuertemente los tokens repetidos, lo que puede mejorar la diversidad del vocabulario pero puede hacer que el modelo evite la repetición necesaria de términos técnicos o nombres de variables.
Presence Penalty (-2.0 a 2.0)
Presence penalty aplica una penalización fija a cualquier token que haya aparecido aunque sea una vez, independientemente de la frecuencia. A diferencia de frequency penalty, no aumenta con las repeticiones. Un valor de 0.5 anima al modelo a introducir nuevos temas y vocabulario. Esto es útil para escritura creativa y lluvia de ideas, donde quieres que el modelo explore ampliamente en lugar de mantenerse enfocado.
Max Tokens
Max tokens establece el límite superior estricto de la longitud de la respuesta. Esto no es un objetivo — el modelo puede detenerse antes si llega a una conclusión natural. Establecer max tokens previene respuestas inesperadamente largas (y caras). Para la mayoría de las llamadas a la API, establecer este valor explícitamente es una buena práctica para controlar los costes.
Preajustes Recomendados por Caso de Uso
Estos preajustes sirven como punto de partida — afínalos según tus necesidades específicas:
- Generación de código — temperature=0.1, top_p=0.95, frequency_penalty=0, presence_penalty=0. Salida determinista con sintaxis consistente.
- Q&A factual — temperature=0.2, top_p=0.9, frequency_penalty=0, presence_penalty=0. Un poco más de variación que puramente determinista, pero aún muy enfocado.
- Conversación general — temperature=0.7, top_p=0.95, frequency_penalty=0.3, presence_penalty=0.1. Respuestas de sonido natural con anti-repetición suave.
- Escritura creativa — temperature=1.0, top_p=0.95, frequency_penalty=0.5, presence_penalty=0.5. Alta variedad con fuerte incentivo para vocabulario diverso.
- Lluvia de ideas — temperature=1.3, top_p=0.98, frequency_penalty=0.8, presence_penalty=0.8. Máxima diversidad para generación de ideas. Revisa la salida cuidadosamente.
Preguntas Frecuentes
¿Cuál es la diferencia entre temperature y top_p?
Tanto temperature como top_p controlan la aleatoriedad en las salidas del modelo, pero funcionan de manera diferente. Temperature escala la distribución de probabilidad — valores más altos la aplanan (más aleatorio), valores más bajos la acentúan (más determinista). Top_p (muestreo nucleus) trunca la distribución considerando solo los tokens cuya probabilidad acumulada alcanza p. Con temperature=0, el modelo siempre elige el token más probable. Con top_p=0.1, el modelo solo considera el 10% de los tokens más probables. La mayoría de los proveedores recomiendan ajustar uno u otro, no ambos simultáneamente.
¿Cuál es la diferencia entre frequency penalty y presence penalty?
Frequency penalty reduce la probabilidad de los tokens proporcionalmente a cuántas veces ya han aparecido — cuanto más se repite una palabra, más fuerte es la penalización. Presence penalty aplica una penalización fija a cualquier token que haya aparecido, independientemente de la frecuencia. Usa frequency penalty para reducir la repetición excesiva de palabras específicas. Usa presence penalty para animar al modelo a explorar nuevos temas y vocabulario. Una frequency penalty pequeña (0.3-0.5) suele ser suficiente para reducir repeticiones molestas sin perjudicar la calidad.
¿Cuáles son los mejores ajustes de parámetros para generación de código?
Para la generación de código, una baja aleatoriedad produce los mejores resultados. Empieza con temperature=0.1-0.2 y top_p=0.95. El código necesita ser sintácticamente correcto y lógicamente consistente, por lo que se prefieren las salidas deterministas. Establece frequency_penalty=0 porque el código naturalmente repite palabras clave y nombres de variables. Para código creativo (generar múltiples soluciones o explorar enfoques), puedes aumentar la temperature a 0.5-0.7, pero superar 0.8 tiende a producir sintaxis inválida.
¿Puedo compartir mis configuraciones de parámetros con mi equipo?
Sí. El playground incluye un botón de "Copiar Configuración" que exporta tus ajustes de parámetros actuales como un objeto JSON compatible con los formatos de API de OpenAI, Anthropic y Google. Puedes compartir este JSON con compañeros de equipo, pegarlo en tu código base o guardarlo para después. La herramienta también proporciona una URL compartible que codifica tus parámetros, para que puedas guardar configuraciones específicas en marcadores o enviarlas a colegas.
Herramientas Relacionadas
Explora más herramientas para optimizar tu flujo de trabajo de desarrollo de IA:
- Evaluador de Riesgo de Alucinación de IA — Observa cómo las elecciones de parámetros interactúan con el riesgo de alucinación en tus prompts
- Asistente de Selección de Modelo de IA — Encuentra el modelo adecuado para tu caso de uso y requisitos de rendimiento
- Calculadora de Costes de API de IA — Estima los costes de las llamadas a la API de IA con el modelo y parámetros elegidos
Herramientas Relacionadas
Calculadora de Costes de API de IA
Calcula y compara costes entre proveedores de IA incluyendo OpenAI, Anthropic, Google, Mistral AI, xAI y más
Evaluador de Riesgo de Alucinación de IA
Puntúa prompts por riesgo de alucinación y obtén sugerencias prácticas para reducir la confabulación
Asistente de Selección de Modelo de IA
Responde algunas preguntas sobre tu caso de uso y obtén recomendaciones personalizadas de modelos de IA