El Observatorio de la IA
Ciberaula Observatorio IA Glosario Riesgos y limitaciones Deriva del modelo (model drift)
Riesgos y limitaciones

Deriva del modelo (model drift)

La deriva del modelo es la pérdida progresiva de calidad de un sistema de IA a medida que pasa el tiempo y el mundo cambia respecto a sus datos de entrenamiento. Sin monitorización ni reentrenamiento, un asistente que funciona perfecto al lanzamiento puede ir empeorando lenta e invisiblemente durante meses.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

La deriva del modelo es la pérdida progresiva de calidad de un sistema de IA a medida que pasa el tiempo y el mundo cambia respecto a sus datos de entrenamiento. Sin monitorización ni reentrenamiento, un asistente que funciona perfecto al lanzamiento puede ir empeorando lenta e invisiblemente durante meses.

Explicación ampliada

Hay dos formas principales. Deriva de datos (data drift): los datos de entrada al sistema cambian su distribución. Por ejemplo, un clasificador de incidencias entrenado con tickets de 2023 empieza a recibir tickets sobre productos lanzados en 2026 que ni existían entonces. Deriva de concepto (concept drift): la relación entre entradas y salidas cambia. Por ejemplo, un modelo de fraude bancario que detectaba bien patrones de 2023 pierde eficacia cuando los defraudadores cambian de táctica en 2025. En ambos casos el modelo no "se rompe" de golpe: las métricas bajan poco a poco, en una curva que es invisible si no se mide. Las prácticas de mitigación: monitorización continua de métricas (precisión, recall, satisfacción del usuario, tasa de escalado a humano), umbrales de alerta cuando bajan más de un X%, reentrenamiento periódico con datos recientes, y A/B testing al actualizar.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa con sistemas IA en producción, el peligro de la deriva no es la caída espectacular sino la lenta erosión: dentro de un año, todos siguen pensando que el sistema funciona "como cuando se lanzó" cuando en realidad ha bajado del 91% al 76% de aciertos sin que nadie lo midiera. Eso traslada riesgo a usuarios y a cumplimiento. AI Act y RGPD esperan que sistemas en producción tengan monitorización post-comercialización, no solo validación inicial.

Ejemplo concreto

Caso real

Una empresa de seguros desplegó en 2024 un modelo IA para detectar partes sospechosos. En el lanzamiento detectaba el 84% de los fraudes confirmados con un 7% de falsos positivos. Sin reentrenamiento ni monitorización formal, en 2025 los defraudadores cambiaron de patrón (más reclamaciones por daños "ambientales" simulados) y a finales de 2025 el modelo solo detectaba el 61% sin que nadie lo midiera. Lo descubrieron al hacer auditoría anual. Tras reentrenar con datos recientes y montar dashboard de métricas mensuales, recuperaron al 79%. Lección interna: la monitorización no es un lujo, es la condición de que el sistema siga funcionando.