Hiperparámetros
Los hiperparámetros son los ajustes de configuración de un modelo de IA que se eligen antes del entrenamiento o que se modifican al usarlo, sin que el modelo los aprenda. Ejemplos típicos: temperatura, top-p, top-k, máximo de tokens de salida, learning rate (en entrenamiento), tamaño de batch.
Definición rápida
Los hiperparámetros son los ajustes de configuración de un modelo de IA que se eligen antes del entrenamiento o que se modifican al usarlo, sin que el modelo los aprenda. Ejemplos típicos: temperatura, top-p, top-k, máximo de tokens de salida, learning rate (en entrenamiento), tamaño de batch.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa que usa modelos vía API, los hiperparámetros relevantes son los de inferencia: temperatura, top-p, max_tokens y similar. Cambiarlos no requiere ingeniería ML: es ajustar un par de números en cada llamada. Pero el efecto puede ser enorme: un asistente con temperatura 1.0 alucina; con 0.0 es preciso. La práctica madura es dejar valores por defecto razonables para el caso de uso (temperatura 0 para tareas precisas, 0.5-0.7 para conversación) y ajustar tras observar resultados, no a la inversa. En fine-tuning con LoRA o similares también hay hiperparámetros que dominan el resultado: rank de la matriz LoRA, learning rate específico, número de épocas. Aquí ya conviene tener guía de quien sabe.
Ejemplo concreto
Una empresa de soporte técnico tenía un asistente con respuestas inconsistentes. Investigando, descubrieron tres hiperparámetros mal calibrados: temperatura a 0.8 (muy creativa para casos repetitivos), max_tokens en 4.000 (respuestas eternas, despilfarro de coste), sin stop sequence (las respuestas a veces se alargaban con texto no pedido). Ajustaron a temperatura 0.3, max_tokens 600, stop sequence al final del formato esperado. Resultado: respuestas un 60% más cortas, coste por llamada -40%, consistencia +25%. Sin tocar ni una palabra del prompt.