El Observatorio de la IA
Ciberaula Observatorio IA Glosario Cumplimiento y ética Evaluación de impacto algorítmico (FRIA)
Cumplimiento y ética

Evaluación de impacto algorítmico (FRIA)

La FRIA, siglas de Fundamental Rights Impact Assessment, es la evaluación de impacto en derechos fundamentales que la AI Act obliga a realizar antes de desplegar un sistema de IA de alto riesgo. Es el equivalente a la EIPD (evaluación de impacto en protección de datos) del RGPD pero ampliada para cubrir riesgos específicos de la IA: discriminación, falta de transparencia, decisiones automatizadas con impacto significativo, sesgo sistémico.

Por Ana María González Actualizado: 28 de abril de 2026 Verificado vigente: 30 de abril de 2026

Definición rápida

Respuesta directa

La FRIA, siglas de Fundamental Rights Impact Assessment, es la evaluación de impacto en derechos fundamentales que la AI Act obliga a realizar antes de desplegar un sistema de IA de alto riesgo. Es el equivalente a la EIPD (evaluación de impacto en protección de datos) del RGPD pero ampliada para cubrir riesgos específicos de la IA: discriminación, falta de transparencia, decisiones automatizadas con impacto significativo, sesgo sistémico.

Explicación ampliada

La FRIA es un documento estructurado que el desplegador (la empresa que usa el sistema, no necesariamente la que lo construyó) debe preparar antes de poner en producción cualquier sistema de IA clasificado como de alto riesgo bajo el AI Act. La obligación entra en vigor el 2 de agosto de 2026 y aplica especialmente a usos en empleo (selección, evaluación de trabajadores), educación (admisiones, evaluación de alumnos), servicios esenciales (crédito, seguros), gestión pública y aplicación de la ley. Una FRIA típica cubre nueve apartados que el AI Act especifica: (1) descripción del sistema y propósito; (2) período de uso previsto; (3) categorías de personas afectadas; (4) riesgos específicos para sus derechos; (5) medidas de supervisión humana implementadas; (6) medidas en caso de materialización de riesgos; (7) gobierno y trazabilidad; (8) participación de partes interesadas; (9) revisión periódica. La FRIA no es un trámite formal: la AESIA (Agencia Española de Supervisión de IA) puede solicitarla en una inspección y un FRIA mal hecho expone a sanciones de hasta el 7% de la facturación global anual según la categoría de infracción. Tampoco es necesariamente largo: para un sistema acotado de selección de candidatos en una pyme puede caber en 15-25 páginas. Las guías de la AESIA (publicadas a principios de 2026, 16 documentos en castellano) ofrecen plantillas adaptadas al tamaño de empresa.

Por qué importa para tu empresa

Aplicación práctica

La FRIA importa para cualquier pyme que vaya a usar IA en uno de los sectores que el AI Act marca como alto riesgo: selección de personal, evaluación de empleados, decisiones de crédito, seguros, formación con evaluación automática. Si tu empresa va a usar IA solo para tareas administrativas, redacción y análisis interno, no aplica. Para los casos donde sí aplica, la FRIA hay que tenerla escrita antes del despliegue, no después. Subcontratar a un despacho con experiencia en RGPD y AI Act suele ser más eficiente que intentar redactarla a partir de cero.

Ejemplo concreto

Caso real

Una empresa de selección de personal con 35 empleados quería usar IA para hacer screening inicial de los currículums recibidos. Como la selección es uso de alto riesgo bajo AI Act, encargó una FRIA a un despacho especializado. La FRIA identificó dos riesgos serios: (1) sesgo potencial contra candidatos sobre 50 años porque los datos de entrenamiento del proveedor americano sobreponderaban CVs jóvenes; (2) opacidad de los criterios de filtrado para los candidatos rechazados. La FRIA prescribió medidas: prohibir al sistema considerar fecha de nacimiento, hacer revisión humana del 100% de los rechazados, y dar derecho de explicación a quien lo pida. La empresa adoptó las medidas y pudo desplegar el sistema con respaldo documental.