El Observatorio de la IA
Ciberaula Observatorio IA Glosario Modelos de lenguaje (LLM) Olvido catastrófico (catastrophic forgetting)
Modelos de lenguaje (LLM)

Olvido catastrófico (catastrophic forgetting)

El olvido catastrófico ocurre cuando un modelo, al ser ajustado (fine-tuned) para una tarea o dominio nuevo, pierde capacidades que tenía antes. Aprender lo nuevo "sobrescribe" lo viejo. Es un riesgo concreto y caro para empresas que personalizan un modelo: pueden acabar con un sistema bueno en lo suyo pero peor en lo general.

Por Ana María González Actualizado: 16 de mayo de 2026

Definición rápida

Respuesta directa

El olvido catastrófico ocurre cuando un modelo, al ser ajustado (fine-tuned) para una tarea o dominio nuevo, pierde capacidades que tenía antes. Aprender lo nuevo "sobrescribe" lo viejo. Es un riesgo concreto y caro para empresas que personalizan un modelo: pueden acabar con un sistema bueno en lo suyo pero peor en lo general.

Explicación ampliada

Cuando una empresa hace fine-tuning de un modelo de fundación con sus propios datos, está modificando los parámetros del modelo. Si el ajuste es agresivo o los datos son estrechos, el modelo puede mejorar mucho en la tarea objetivo a costa de degradar habilidades generales que tenía: razonamiento, redacción cuidada, conocimiento de otros dominios, seguimiento de instrucciones. Es el olvido catastrófico, y es contraintuitivo para quien encarga el proyecto: esperaba "sumar" conocimiento y descubre que ha "restado" otro. Las mitigaciones son técnicas y conocidas: usar métodos de ajuste ligeros que tocan pocos parámetros (LoRA y similares) en lugar de fine-tuning completo, mezclar datos generales con los específicos durante el ajuste, regularizar para penalizar alejarse demasiado del modelo base, y —crucial— evaluar el modelo ajustado no solo en la tarea nueva sino también en una batería de capacidades generales antes y después. Muchas decepciones con modelos personalizados ("funciona para lo que lo entrené pero se ha vuelto torpe en lo demás") son olvido catastrófico no diagnosticado.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa que va a personalizar un modelo, el olvido catastrófico es el riesgo técnico que más sorpresas desagradables causa. La regla práctica: antes de cualquier fine-tuning, fijar un conjunto de evaluación que mida también capacidades generales, no solo la tarea objetivo; comparar el modelo antes y después en ambas; y exigir contractualmente al proveedor que el ajuste no degrade por debajo de un umbral las capacidades generales. Preferir siempre métodos de ajuste ligeros salvo justificación sólida.

Ejemplo concreto

Caso real

Una empresa ajustó un modelo con 10.000 fichas técnicas de su sector para que dominara su jerga. El modelo resultante respondía perfectamente sobre productos propios, pero había perdido capacidad de redacción clara y de razonamiento general: los correos que generaba para clientes habían empeorado notablemente. Nadie lo detectó hasta recibir quejas, porque solo se había evaluado la tarea específica. Rehicieron el ajuste con LoRA y mezclando datos generales, y añadieron una evaluación de capacidades generales obligatoria antes de poner cualquier modelo ajustado en producción.