Leyes de escalado (scaling laws)
Las leyes de escalado son relaciones matemáticas observadas en la literatura científica que predicen cómo mejora la calidad de un modelo de lenguaje cuando se aumentan sus tres factores principales: tamaño del modelo (parámetros), volumen de datos de entrenamiento y cómputo dedicado. Han sido la base de la apuesta por modelos cada vez más grandes durante 2020-2024.
Definición rápida
Las leyes de escalado son relaciones matemáticas observadas en la literatura científica que predicen cómo mejora la calidad de un modelo de lenguaje cuando se aumentan sus tres factores principales: tamaño del modelo (parámetros), volumen de datos de entrenamiento y cómputo dedicado. Han sido la base de la apuesta por modelos cada vez más grandes durante 2020-2024.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa esta palabra importa por dos motivos prácticos. Primero, justifica por qué los modelos frontera siguen mejorando: no es marketing, hay leyes empíricas detrás. Segundo, ayuda a no caer en el simplismo "más grande siempre es mejor": para tu caso de uso, un modelo de tamaño medio bien entrenado y bien ajustado puede ser preferible al modelo más grande disponible, especialmente con su coste. Y tercero, explica por qué empresas como Anthropic, OpenAI, Google y xAI gastan miles de millones en próximas generaciones: las leyes predicen mejoras seguidas, aunque cada vez más caras.
Ejemplo concreto
Un comité de inversión de una multinacional debatía si firmar contrato a 3 años con un proveedor IA. La pregunta clave: "¿van los modelos a ser mucho mejores en 3 años?". Tras leer un informe sobre scaling laws, entendieron que sí: la mejora seguía siendo predecible aunque más cara. Decidieron no firmar a 3 años (el modelo del momento estaría obsoleto), sino contrato anual con cláusula de actualización a la última versión. Un año después, los modelos efectivamente eran ~30% mejores en sus tareas; haberse atado al de hace 12 meses habría sido caro.