Sistema de IA de alto riesgo
Un sistema de IA de alto riesgo, según el AI Act, es uno que se usa en ámbitos sensibles del Anexo III (empleo, educación, crédito, servicios esenciales, biometría, justicia, migración, infraestructuras críticas) o como componente de seguridad de productos regulados. Desde el 2 de agosto de 2026 estos sistemas tienen un régimen completo de obligaciones bajo riesgo de sanciones de hasta 15 M € o 3% del volumen mundial.
Definición rápida
Un sistema de IA de alto riesgo, según el AI Act, es uno que se usa en ámbitos sensibles del Anexo III (empleo, educación, crédito, servicios esenciales, biometría, justicia, migración, infraestructuras críticas) o como componente de seguridad de productos regulados. Desde el 2 de agosto de 2026 estos sistemas tienen un régimen completo de obligaciones bajo riesgo de sanciones de hasta 15 M € o 3% del volumen mundial.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa española, la pregunta clave a contestar antes del 2 de agosto de 2026 es: "¿alguno de los sistemas IA que usamos cae en alto riesgo?". Si una empresa usa IA para cribar candidatos a un puesto, evaluar morosidad de clientes, decidir tarifas de seguro por perfil, o cualquier sistema biométrico —aunque sea SaaS contratado a un tercero— puede ser deployer de un sistema de alto riesgo, con obligaciones propias incluso si el proveedor es americano. La sanción puede llegar a 15 M € o 3% del volumen mundial, además del riesgo reputacional. AESIA es la autoridad que supervisará en España. La práctica recomendada: hacer ya el inventario y la clasificación de cada sistema IA en uso, con asesoría legal especializada para los casos dudosos.
Ejemplo concreto
Una empresa de RR. HH. española contrataba en 2024 un servicio SaaS estadounidense que cribaba CVs de candidatos con IA. En la auditoría interna de cara al AI Act descubrieron que ese sistema entraba en el Anexo III (decisiones de empleo) y, como deployers, debían cumplir varias obligaciones del Artículo 26: información al candidato de la decisión asistida por IA, supervisión humana real, evaluación de impacto en derechos fundamentales. El proveedor americano no proporcionaba la documentación técnica necesaria. Decisión: cambiar a un proveedor europeo certificado y reformar el flujo para añadir revisión humana antes de cada rechazo. Coste de transición: 18.000 €. Coste estimado de no haberlo hecho: hasta 3% del volumen anual.