Deriva del modelo (model drift)
La deriva del modelo es la pérdida progresiva de calidad de un sistema de IA a medida que pasa el tiempo y el mundo cambia respecto a sus datos de entrenamiento. Sin monitorización ni reentrenamiento, un asistente que funciona perfecto al lanzamiento puede ir empeorando lenta e invisiblemente durante meses.
Definición rápida
La deriva del modelo es la pérdida progresiva de calidad de un sistema de IA a medida que pasa el tiempo y el mundo cambia respecto a sus datos de entrenamiento. Sin monitorización ni reentrenamiento, un asistente que funciona perfecto al lanzamiento puede ir empeorando lenta e invisiblemente durante meses.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa con sistemas IA en producción, el peligro de la deriva no es la caída espectacular sino la lenta erosión: dentro de un año, todos siguen pensando que el sistema funciona "como cuando se lanzó" cuando en realidad ha bajado del 91% al 76% de aciertos sin que nadie lo midiera. Eso traslada riesgo a usuarios y a cumplimiento. AI Act y RGPD esperan que sistemas en producción tengan monitorización post-comercialización, no solo validación inicial.
Ejemplo concreto
Una empresa de seguros desplegó en 2024 un modelo IA para detectar partes sospechosos. En el lanzamiento detectaba el 84% de los fraudes confirmados con un 7% de falsos positivos. Sin reentrenamiento ni monitorización formal, en 2025 los defraudadores cambiaron de patrón (más reclamaciones por daños "ambientales" simulados) y a finales de 2025 el modelo solo detectaba el 61% sin que nadie lo midiera. Lo descubrieron al hacer auditoría anual. Tras reentrenar con datos recientes y montar dashboard de métricas mensuales, recuperaron al 79%. Lección interna: la monitorización no es un lujo, es la condición de que el sistema siga funcionando.