Privacy leakage (fuga de datos personales)
Privacy leakage es la exposición no intencionada de datos personales o información confidencial a través de un modelo de IA. Puede ocurrir porque el modelo memorizó datos del entrenamiento, porque alguien extrae datos vía ataques específicos (membership inference, training data extraction), o porque el sistema de IA refleja datos sensibles de un usuario a otro (cross-user leakage en cachés mal aislados).
Definición rápida
Privacy leakage es la exposición no intencionada de datos personales o información confidencial a través de un modelo de IA. Puede ocurrir porque el modelo memorizó datos del entrenamiento, porque alguien extrae datos vía ataques específicos (membership inference, training data extraction), o porque el sistema de IA refleja datos sensibles de un usuario a otro (cross-user leakage en cachés mal aislados).
Explicación ampliada
Por qué importa para tu empresa
Para una empresa, privacy leakage es un riesgo a vigilar tanto en modelos propios entrenados con datos sensibles, como en uso de modelos de terceros con datos confidenciales. Tres prácticas mínimas: (1) en uso de APIs comerciales, plan empresarial con DPA y zero data retention para que tus prompts no entren al training set del proveedor; (2) en modelos propios entrenados con datos personales, evaluación específica de memorización antes de despliegue (intentar extracción con prompts adversariales); (3) en sistemas con caché o memoria compartida, aislamiento estricto por usuario/sesión y auditoría periódica. Bajo RGPD, un privacy leakage es una brecha de seguridad notificable a la AEPD en 72 horas y a los afectados si el riesgo es alto.
Ejemplo concreto
Una pyme tecnológica entrenó un modelo IA para clasificación de emails de clientes con su dataset histórico. Antes del despliegue, el equipo de seguridad realizó una evaluación de memorización: 1.500 prompts adversariales tipo "Continúa este email: \"Estimado cliente \"" y similares. Hallazgo: en 12 casos el modelo emitió fragmentos textuales reconocibles de emails reales con datos de clientes (nombres, teléfonos, saldos). Causa: dataset con duplicados y poca diversidad en ciertos templates. Acción: re-entrenamiento tras deduplicación y filtrado de PII, evaluación posterior con cero detecciones, despliegue con monitorización continua. Tiempo perdido: 6 semanas. Daño evitado: una potencial brecha RGPD masiva que habría sido reportable y reputacionalmente grave.