Copyright en entrenamiento de modelos
El copyright en entrenamiento de modelos es la cuestión legal abierta de si entrenar un modelo de IA con obras protegidas (textos, imágenes, vídeos, código) sin licencia constituye infracción. En 2026 hay decenas de demandas activas (NYT contra OpenAI, Universal/Sony/Warner contra Suno y Udio, Getty Images contra Stability AI, autores y artistas contra Meta, Anthropic, Stability) y un mosaico de criterios judiciales por jurisdicción.
Definición rápida
El copyright en entrenamiento de modelos es la cuestión legal abierta de si entrenar un modelo de IA con obras protegidas (textos, imágenes, vídeos, código) sin licencia constituye infracción. En 2026 hay decenas de demandas activas (NYT contra OpenAI, Universal/Sony/Warner contra Suno y Udio, Getty Images contra Stability AI, autores y artistas contra Meta, Anthropic, Stability) y un mosaico de criterios judiciales por jurisdicción.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa que use modelos de terceros, esto importa porque las decisiones judiciales pueden afectar a la disponibilidad o coste de los modelos que ya usas. Un modelo declarado infractor podría ser retirado, alterado, o requerir licencias retroactivas que sus proveedores trasladen al precio. La práctica madura: revisar los términos de cada modelo (¿asume el proveedor responsabilidad por copyright en outputs? Microsoft, Google, OpenAI, Anthropic ofrecen indemnización en planes empresariales); evitar usar outputs de modelos GenAI para producir contenidos que claramente reproduzcan obras conocidas; conservar logs por si una reclamación específica obliga a investigar. Para empresas que entrenan modelos propios, hay que ser muy estrictos con las fuentes y respetar opt-out europeo.
Ejemplo concreto
Una pyme española de software adoptó Claude API para diversas funciones. Su asesor legal le señaló que aunque Anthropic ofrece indemnización por copyright en plan empresarial (cobertura de demandas que recaigan sobre outputs si el cliente actuó de buena fe), eso no protege todos los casos. Adoptaron tres precauciones: (1) plan Enterprise con indemnización contractual, (2) política interna de no usar outputs IA para generar contenidos cuya estética imite la obra de un artista o autor identificable, (3) registro de qué contenidos se han generado con qué herramienta para trazabilidad si llega reclamación. Coste extra: cero. Tranquilidad jurídica: significativa.