El Observatorio de la IA
Ciberaula Observatorio IA Glosario Cumplimiento y ética GPAI (modelos de uso general)
Cumplimiento y ética

GPAI (modelos de uso general)

GPAI (General Purpose AI) es la categoría que el AI Act reserva para los modelos de IA capaces de ser usados en muchas tareas distintas, como los grandes modelos de lenguaje. Sus proveedores (OpenAI, Anthropic, Google, Meta, Mistral...) tienen obligaciones específicas en vigor desde el 2 de agosto de 2025, y si el modelo tiene "riesgo sistémico", obligaciones reforzadas.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

GPAI (General Purpose AI) es la categoría que el AI Act reserva para los modelos de IA capaces de ser usados en muchas tareas distintas, como los grandes modelos de lenguaje. Sus proveedores (OpenAI, Anthropic, Google, Meta, Mistral...) tienen obligaciones específicas en vigor desde el 2 de agosto de 2025, y si el modelo tiene "riesgo sistémico", obligaciones reforzadas.

Explicación ampliada

El AI Act define un "modelo de propósito general" como aquel que muestra una notable generalidad y es capaz de realizar de forma competente una amplia gama de tareas distintas, integrándose en diversos sistemas posteriores. En la práctica: GPT-5.x, Claude Opus 4.x, Gemini 3.x, Llama 4, Mistral Large, DeepSeek-V3 y similares. Los proveedores GPAI deben, desde agosto de 2025: publicar documentación técnica del modelo, un resumen del contenido de entrenamiento, políticas de respeto de derechos de autor, y atender al AI Office europeo. Una subcategoría —los modelos GPAI con "riesgo sistémico" (el umbral indicativo es cómputo de entrenamiento >= 10^25 FLOPs)— tiene además obligaciones de evaluación de capacidades peligrosas, mitigación de riesgos sistémicos, ciberseguridad y reporte de incidentes. La Comisión publicó en julio de 2025 el GPAI Code of Practice (voluntario), las Guidelines on the scope of GPAI obligations, y el Template for the public summary of training content.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa española, la pregunta práctica es doble. Como usuaria de un GPAI (vía ChatGPT, Claude, Copilot, etc.), necesita verificar que su proveedor cumple sus obligaciones: que tiene la documentación técnica, el resumen de entrenamiento, el código de prácticas firmado o equivalente. Esto se consulta en contrato y en la web del proveedor. Como integradora de un GPAI en su producto, asume la posición de "deployer" y le tocan obligaciones de transparencia (informar al usuario que interactúa con IA, etiquetar contenido sintético) y, si el sistema final cae en alto riesgo, todo el bloque correspondiente.

Ejemplo concreto

Caso real

Una agencia de marketing española, al renovar contratos con sus tres proveedores IA en septiembre de 2025, pidió a cada uno la "declaración de cumplimiento GPAI" y el resumen público del contenido de entrenamiento. Dos respondieron con documentación; el tercero, con un proveedor más pequeño, tardó tres meses y aportó un texto incompleto. La agencia descontinuó al tercero como medida de gestión de riesgo, no por mala fe sino porque no podía documentar su cadena de cumplimiento ante un cliente que se lo exigió en una RFP.