El Observatorio de la IA
Ciberaula Observatorio IA Glosario Cumplimiento y ética IA de riesgo limitado y deber de transparencia
Cumplimiento y ética

IA de riesgo limitado y deber de transparencia

El AI Act clasifica ciertos sistemas como de riesgo limitado, sujetos sobre todo a obligaciones de transparencia: informar a las personas de que interactúan con una IA (chatbots), o de que un contenido ha sido generado o manipulado artificialmente (texto, imagen, audio, vídeo sintéticos). Afecta a usos muy comunes en empresas, no solo a casos exóticos.

Por Ana María González Actualizado: 16 de mayo de 2026

Definición rápida

Respuesta directa

El AI Act clasifica ciertos sistemas como de riesgo limitado, sujetos sobre todo a obligaciones de transparencia: informar a las personas de que interactúan con una IA (chatbots), o de que un contenido ha sido generado o manipulado artificialmente (texto, imagen, audio, vídeo sintéticos). Afecta a usos muy comunes en empresas, no solo a casos exóticos.

Explicación ampliada

El AI Act gradúa obligaciones según el riesgo del sistema. Entre prohibido (riesgo inaceptable) y altamente regulado (alto riesgo) hay una categoría que toca a muchísimas empresas: la de riesgo limitado, cuya exigencia central es la transparencia. Los casos típicos son cotidianos: un chatbot o asistente conversacional debe, en general, dejar claro a la persona que está interactuando con un sistema de IA y no con un humano, salvo que resulte obvio por el contexto; y el contenido generado o manipulado artificialmente que pueda parecer auténtico —imágenes, audio, vídeo, también texto en ciertos casos, incluidos los deepfakes— debe señalarse como tal. La lógica es proteger la confianza: que las personas sepan cuándo hablan con una máquina y cuándo lo que ven u oyen es sintético. Para una empresa esto no es un tecnicismo lejano: si tiene un chatbot de atención, si genera imágenes o vídeos con IA para marketing o formación, si usa voces sintéticas, probablemente está dentro del ámbito de estas obligaciones de transparencia. Cumplirlas es relativamente sencillo y barato (un aviso claro, un etiquetado), pero hay que conocerlas y aplicarlas deliberadamente; el incumplimiento no suele venir de mala fe sino de no haber sabido que aplicaban. Las fechas y detalles concretos deben confirmarse en el texto oficial y guías, dentro del calendario de aplicación general.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa, el deber de transparencia de la IA de riesgo limitado afecta a usos tan comunes como un chatbot o el contenido generado para marketing, y se incumple casi siempre por desconocimiento, no por intención. La regla práctica: inventariar dónde se interactúa con IA o se publica contenido sintético, añadir avisos y etiquetado claros (es un asistente automático; contenido generado con IA), y formar al personal de marketing y atención en esta obligación. Es de cumplimiento barato y de incumplimiento evitable.

Ejemplo concreto

Caso real

Una empresa usaba un asistente conversacional en su web que no se identificaba como IA y generaba imágenes con IA para campañas sin señalarlas. No había mala fe: nadie sabía que el AI Act exigía transparencia en esos casos de riesgo limitado. Una revisión lo detectó. La solución fue sencilla y de bajo coste: el chatbot pasó a identificarse claramente como asistente automático al inicio de cada conversación, el contenido generado con IA se etiquetó, y se formó a los equipos de atención y marketing en cuándo aplica el deber de transparencia para no reincidir.