El Observatorio de la IA
Ciberaula Observatorio IA Glosario Modelos de lenguaje (LLM) Modelo open-weight (de pesos abiertos)
Modelos de lenguaje (LLM)

Modelo open-weight (de pesos abiertos)

Un modelo open-weight es un modelo de IA cuyos parámetros entrenados (los "pesos") están disponibles públicamente y se pueden descargar, ejecutar localmente y modificar. No es lo mismo que open-source completo (que incluye datos y código de entrenamiento), pero permite a una empresa controlar el modelo en sus propios servidores. Los principales son Llama (Meta), Mistral, Qwen (Alibaba), DeepSeek y Gemma (Google).

Por Ana María González Actualizado: 28 de abril de 2026

Definición rápida

Respuesta directa

Un modelo open-weight es un modelo de IA cuyos parámetros entrenados (los "pesos") están disponibles públicamente y se pueden descargar, ejecutar localmente y modificar. No es lo mismo que open-source completo (que incluye datos y código de entrenamiento), pero permite a una empresa controlar el modelo en sus propios servidores. Los principales son Llama (Meta), Mistral, Qwen (Alibaba), DeepSeek y Gemma (Google).

Explicación ampliada

La distinción entre <em>cerrado</em>, <em>open-weight</em> y <em>open-source</em> es importante. Los modelos cerrados (GPT-5, Claude Opus, Gemini Pro) solo se pueden usar a través de la API o producto del fabricante: nunca sales del entorno del proveedor. Los modelos open-weight publican los parámetros entrenados pero no los datos ni el código: cualquier empresa puede descargar el modelo y ejecutarlo donde quiera, pero no puede reproducir su entrenamiento desde cero. Los open-source completos (raros y normalmente más pequeños) publican además datos y código. Los open-weight más usados en abril de 2026 son <strong>Llama 4</strong> (Meta, lanzado en febrero de 2026 con tamaños de 8B, 70B y 405B parámetros), <strong>Mistral Large 3 y Mixtral 8x22B</strong> (Mistral, francesa, importante por soberanía europea), <strong>Qwen 3</strong> (Alibaba, fuerte en chino e inglés), <strong>DeepSeek V4 y R1</strong> (china, los más capaces en su categoría en 2026 a coste de inferencia muy bajo) y <strong>Gemma 3</strong> (Google, optimizado para ejecutar en local). La razón para usar un modelo open-weight en lugar de uno cerrado suele ser una de tres: <strong>privacidad máxima</strong> (datos sensibles que no pueden salir del perímetro corporativo), <strong>coste a escala</strong> (volumen alto de inferencia donde la API resulta cara), o <strong>personalización profunda</strong> (fine-tuning con datos propios que requiere control sobre el modelo base).

Por qué importa para tu empresa

Aplicación práctica

Para la mayoría de pymes españolas, los modelos open-weight no son la primera opción: requieren infraestructura propia, conocimiento técnico y costes fijos en hardware. Pero conocer el término es importante por dos razones. Primero, porque cuando se hable de "soberanía digital europea" o "alternativa europea a OpenAI" se está hablando de Mistral. Segundo, porque algún día concreto, una empresa con datos sensibles puede tener que evaluar si paga más por un modelo cerrado o invierte en infraestructura para correr un open-weight con sus datos sin salir del perímetro.

Ejemplo concreto

Caso real

Un despacho de abogados de Madrid con 40 abogados y datos especialmente sensibles (procesos penales con menores, divorcios contenciosos) decidió no usar APIs de IA externas. Compró un servidor con 2 GPUs de 80 GB y despliegó Llama 4 70B con un sistema RAG sobre su biblioteca de jurisprudencia. La inversión inicial fue de 22.000 euros y el despliegue lleva tres meses. La calidad es notablemente inferior a Claude o GPT-5.5 pero suficiente para resumir, buscar precedentes y preparar primeras versiones de escritos. Los datos nunca salen del despacho. La dirección considera que la calidad menor compensa por el riesgo legal evitado.