El Observatorio de la IA
Ciberaula Observatorio IA Glosario Aplicación empresarial Política de uso de IA
Aplicación empresarial

Política de uso de IA

Una política de uso de IA es el documento interno donde una empresa establece qué herramientas de IA pueden usar sus empleados, para qué tareas, con qué datos y con qué obligaciones de revisión. Es la traducción operativa al día a día de los compromisos legales (RGPD, AI Act) y deontológicos de la empresa con sus empleados, clientes y reguladores. Pasa de ser opcional a obligatoria con la entrada en vigor de la AI Act en agosto de 2026.

Por Ana María González Actualizado: 28 de abril de 2026

Definición rápida

Respuesta directa

Una política de uso de IA es el documento interno donde una empresa establece qué herramientas de IA pueden usar sus empleados, para qué tareas, con qué datos y con qué obligaciones de revisión. Es la traducción operativa al día a día de los compromisos legales (RGPD, AI Act) y deontológicos de la empresa con sus empleados, clientes y reguladores. Pasa de ser opcional a obligatoria con la entrada en vigor de la AI Act en agosto de 2026.

Explicación ampliada

Una política de uso de IA típica cubre seis bloques. <strong>Primero, herramientas autorizadas y prohibidas</strong>: qué productos puede usar el equipo (la cuenta ChatGPT Business de la empresa sí, la versión personal gratuita no), con cuáles hay convenio empresarial firmado y cuáles no se autorizan por riesgo de privacidad. <strong>Segundo, qué datos se pueden pegar</strong>: nombres de clientes sí o no según la herramienta, datos económicos, datos sensibles (salud, raza, religión), contratos, datos personales de candidatos. <strong>Tercero, casos de uso permitidos y no permitidos</strong>: redacción de correos sí, generación de presentaciones sí, decisiones automáticas sobre personas no, screening de currículums no sin supervisión humana. <strong>Cuarto, obligación de revisión humana</strong>: qué contenido producido por IA puede salir directo y cuál requiere revisión previa antes de enviarse al cliente o publicarse externamente. <strong>Quinto, transparencia</strong>: cuándo y cómo se informa al cliente o al destinatario de que la respuesta ha sido elaborada con IA. <strong>Sexto, formación y responsabilidades</strong>: quién es responsable de cada herramienta, cómo se forma a nuevos empleados, cómo se reportan incidentes. Una política de uso de IA cabe perfectamente en 6 a 10 páginas. Más extenso suele ser indicador de inseguridad jurídica disfrazada de profundidad.

Por qué importa para tu empresa

Aplicación práctica

Para una pyme española, tener una política de uso de IA escrita y firmada por todo el equipo cumple cuatro funciones simultáneas: cumplimiento normativo (la AI Act la espera en empresas que usan IA en categorías de riesgo limitado o superior), gestión del riesgo legal (limita la responsabilidad si un empleado comete una infracción contra la política firmada), claridad organizativa (todo el mundo sabe qué puede hacer y qué no), y comunicación al exterior (clientes y partners ven que la empresa adopta IA con criterio).

Ejemplo concreto

Caso real

Una asesoría contable de Madrid con 22 personas redactó su política de uso de IA en 8 páginas durante una jornada de trabajo conjunta entre dirección, abogado externo y responsable de TI. Incluía lista de herramientas autorizadas (ChatGPT Business, Microsoft Copilot, Claude Team), lista explícita de datos que nunca se pegan en IA externa (DNI completos de clientes, datos económicos identificables, contraseñas), procedimiento de revisión para correos a cliente generados por IA, y formación obligatoria de 2 horas para todo el equipo. La política fue firmada por cada empleado al activar la cuenta empresarial. Tres meses después se identificó una infracción menor que se resolvió con una conversación educativa, sin escalada.