LoRA (Low-Rank Adaptation)
LoRA es la técnica más usada para hacer fine-tuning ligero de un modelo de IA grande: en vez de reentrenar todos sus miles de millones de parámetros (caro, lento), añade un pequeño conjunto de pesos extra que se entrenan sobre los datos de la empresa. El archivo LoRA pesa pocos megabytes y se "monta" sobre el modelo base.
Definición rápida
LoRA es la técnica más usada para hacer fine-tuning ligero de un modelo de IA grande: en vez de reentrenar todos sus miles de millones de parámetros (caro, lento), añade un pequeño conjunto de pesos extra que se entrenan sobre los datos de la empresa. El archivo LoRA pesa pocos megabytes y se "monta" sobre el modelo base.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa LoRA es la diferencia entre "fine-tuning es caro y reservado a las grandes" y "fine-tuning es barato y rentable". Permite adaptar un modelo abierto al lenguaje específico de tu sector, a tu tono de marca, a tu base documental, con un coste de unos cientos a unos pocos miles de euros (vs decenas de miles del fine-tuning completo) y en hardware modesto. La regla práctica: si vas a especializar un modelo abierto, empieza por LoRA. Solo si los resultados no son suficientes, escala a fine-tuning completo.
Ejemplo concreto
Una agencia de traducción jurídica adaptó Llama 3.1 8B con LoRA usando 12.000 pares de traducciones suyas previas (español-francés jurídico). Coste: 380 € en cómputo cloud, 6 horas de entrenamiento. Resultado: el modelo adaptado producía traducciones que sus traductores aceptaban con muchos menos cambios que la versión base —ahorro estimado de 35 minutos por documento. El archivo LoRA pesa 28 MB y se monta sobre Llama base. Pueden tener tres LoRAs distintos (jurídico, técnico, médico) y cargar el adecuado según el caso.