El Observatorio de la IA
Ciberaula Observatorio IA Glosario Infraestructura y técnica Recuperación ante fallos de un sistema de IA (fallback)
Infraestructura y técnica

Recuperación ante fallos de un sistema de IA (fallback)

Es el diseño de qué ocurre cuando el componente de IA falla, se degrada o no está disponible: un plan B definido (modelo alternativo, respuesta segura por defecto, derivación a un proceso humano) en lugar de que el fallo de la IA tumbe el proceso o produzca resultados incontrolados. La pregunta clave que casi nadie se hace antes de poner IA en producción.

Por Ana María González Actualizado: 16 de mayo de 2026

Definición rápida

Respuesta directa

Es el diseño de qué ocurre cuando el componente de IA falla, se degrada o no está disponible: un plan B definido (modelo alternativo, respuesta segura por defecto, derivación a un proceso humano) en lugar de que el fallo de la IA tumbe el proceso o produzca resultados incontrolados. La pregunta clave que casi nadie se hace antes de poner IA en producción.

Explicación ampliada

Todo componente de un sistema puede fallar; el de IA también, y de formas particulares: el proveedor cae o limita el uso, la latencia se dispara, el modelo se degrada silenciosamente, una respuesta es claramente inválida. Un sistema diseñado con madurez no asume que la IA siempre estará disponible y siempre acertará: define explícitamente el comportamiento de recuperación (fallback). Las estrategias típicas, según criticidad: redundancia de proveedor o modelo (si el principal no responde, conmutar a un alternativo —lo que la capa de orquestación facilita—); degradación elegante (si la IA no está, ofrecer una versión reducida pero segura del servicio en vez de caer del todo); respuesta segura por defecto (ante baja confianza o fallo, una salida conservadora predefinida en lugar de improvisar); y derivación a humano o a proceso manual para lo crítico. Lo esencial es que el fallback se decide y se prueba antes de producción, no se improvisa durante el incidente. Una pregunta de diseño obligatoria para cualquier sistema de IA con responsabilidad real: "si la IA no responde o responde mal, ¿qué pasa exactamente, quién se entera y qué se le ofrece al usuario mientras tanto?". Si la respuesta es "no lo hemos pensado", el sistema no está listo para producción. Este principio enlaza con la vigilancia de la degradación silenciosa (detectar el problema) y con los handoffs a humano (una de las vías de recuperación).

Por qué importa para tu empresa

Aplicación práctica

Para una empresa, poner IA en un proceso sin plan de recuperación significa que el día que la IA falle —y fallará— el proceso cae o produce resultados incontrolados sin alternativa. La regla práctica: antes de producción, definir y probar el fallback proporcional a la criticidad (proveedor alternativo, degradación elegante, respuesta segura por defecto, derivación a humano) y la señal que dispara cada uno. Test de madurez: si nadie sabe responder "¿qué pasa si la IA falla aquí?", el sistema no está listo.

Ejemplo concreto

Caso real

Una empresa tenía la atención de primer nivel apoyada por completo en un asistente IA, sin plan B. Una caída del proveedor durante varias horas dejó la atención inoperativa: no había definido ningún fallback. Rediseñaron con recuperación por capas: ante fallo del proveedor principal, conmutación automática a un modelo alternativo vía su capa de orquestación; si tampoco, degradación a un menú guiado básico y derivación inmediata a agentes humanos con aviso. La siguiente incidencia del proveedor fue transparente para los clientes porque el fallback estaba definido y probado de antemano.