El Observatorio de la IA
Ciberaula Observatorio IA Glosario Cumplimiento y ética Derecho a la explicación (decisiones automatizadas)
Cumplimiento y ética

Derecho a la explicación (decisiones automatizadas)

El derecho a la explicación es la facultad legal que tiene una persona afectada por una decisión automatizada o asistida por IA a obtener información clara y significativa sobre cómo se tomó esa decisión. Está en el Artículo 22 RGPD (decisiones automatizadas) y, desde el 2 de agosto de 2026, en el Artículo 86 del AI Act para sistemas de alto riesgo del Anexo III.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

El derecho a la explicación es la facultad legal que tiene una persona afectada por una decisión automatizada o asistida por IA a obtener información clara y significativa sobre cómo se tomó esa decisión. Está en el Artículo 22 RGPD (decisiones automatizadas) y, desde el 2 de agosto de 2026, en el Artículo 86 del AI Act para sistemas de alto riesgo del Anexo III.

Explicación ampliada

Hay dos preceptos que se complementan. El Artículo 22 RGPD (vigente desde 2018) prohíbe en general las decisiones basadas únicamente en tratamiento automatizado que produzcan efectos jurídicos o significativos sobre la persona, salvo excepciones (consentimiento explícito, ejecución de contrato, autorización legal). En esos casos permitidos, el interesado tiene derecho a intervención humana, a expresar su punto de vista y a impugnar la decisión. El Tribunal de Justicia de la UE (sentencia C-203/22 SCHUFA, 2024) ha aclarado que el derecho a obtener "información significativa sobre la lógica aplicada" implica una explicación real, no formularios genéricos. El Artículo 86 del AI Act lo refuerza para sistemas de alto riesgo: cualquier persona afectada por una decisión tomada con apoyo de un sistema de alto riesgo del Anexo III, con efectos jurídicos o que afecten significativamente a su salud, seguridad o derechos fundamentales, tiene derecho a "explicaciones claras y significativas del papel del sistema en el procedimiento de toma de decisiones y los principales elementos de la decisión adoptada". Aplica desde el 2 de agosto de 2026.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa española que use IA en decisiones que afecten a personas (contratación, crédito, seguros, beneficios sociales), el derecho a la explicación deja de ser un detalle legal y se vuelve un requisito de diseño. El sistema tiene que poder generar, para cada decisión, una explicación humana comprensible: qué datos se usaron, qué peso tuvieron, qué papel jugó la IA. Esto se puede preparar en el diseño (logging adecuado, modelos interpretables o capas de explicación sobre modelos opacos) o se sufre cuando la primera persona afectada lo reclama. Las multas por incumplimiento del Artículo 22 RGPD son las del régimen general (hasta 20 M € o 4% volumen mundial); las del Artículo 86 AI Act, hasta 15 M € o 3%.

Ejemplo concreto

Caso real

Una entidad financiera que usaba IA para puntuar solicitudes de hipoteca recibió en 2025 la primera reclamación formal de un cliente cuya hipoteca fue denegada: pedía explicación detallada de la decisión bajo Artículo 22 RGPD. El sistema no había sido diseñado para generar explicaciones; el equipo legal tuvo que reconstruir manualmente qué factores habían pesado a partir de los datos de entrada y del modelo. Tres meses de trabajo. Tras el incidente, rediseñaron el sistema con una capa de explicaciones automatizadas (SHAP values + frase generada por LLM): cualquier denegación incluye ahora un párrafo que explica "los principales factores que han influido en esta decisión han sido…". Coste de la reforma: 22.000 €; coste evitado: probablemente sanción AEPD significativa.