El Observatorio de la IA
Ciberaula Observatorio IA Glosario Conceptos fundamentales Parámetros (de un modelo)
Conceptos fundamentales

Parámetros (de un modelo)

Los parámetros de un modelo de IA son los valores numéricos internos (los "pesos") que el modelo aprende durante el entrenamiento y que determinan cómo responde. Su número, expresado en miles de millones (B, de billion en inglés), es la métrica más usada para comparar el "tamaño" de un modelo.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

Los parámetros de un modelo de IA son los valores numéricos internos (los "pesos") que el modelo aprende durante el entrenamiento y que determinan cómo responde. Su número, expresado en miles de millones (B, de billion en inglés), es la métrica más usada para comparar el "tamaño" de un modelo.

Explicación ampliada

Cuando lees que un modelo es de "7B" o "70B" o "405B", esos números se refieren a parámetros: 7.000 millones, 70.000 millones, 405.000 millones de valores ajustables que conforman la red neuronal. Cada parámetro es básicamente un pequeño dial que el entrenamiento ha calibrado para que, dado un texto de entrada, el modelo produzca la respuesta más probable. A más parámetros, más capacidad de capturar matices del lenguaje y del razonamiento, pero también más memoria de GPU necesaria para ejecutarlo y más coste por respuesta. Un modelo de 7B se puede ejecutar en un portátil decente. Un modelo de 70B requiere servidores con GPUs caras. Un modelo de 400B+ solo corre en infraestructura de centro de datos. La relación entre parámetros y calidad no es lineal: un modelo de 70B bien entrenado supera a uno de 200B mal entrenado, y técnicas como mezcla de expertos (MoE) permiten tener "muchos parámetros" pero activar solo una fracción en cada respuesta.

Por qué importa para tu empresa

Aplicación práctica

Los parámetros son el primer dato que mira un equipo técnico para decidir si un modelo es viable internamente o requiere API externa. Una pyme que quiera ejecutar un modelo en su propio servidor para mantener los datos en casa probablemente puede con un 7B o 13B en una GPU profesional de unos 8.000-15.000 €, podría plantearse un 30B con hardware más caro, pero un 70B+ ya implica infraestructura de cuatro o cinco cifras de inversión inicial y costes de electricidad recurrentes.

Ejemplo concreto

Caso real

Un despacho legal evaluó tres opciones para hacer resúmenes internos de jurisprudencia. (1) API de Claude Sonnet (modelo cerrado, parámetros no públicos pero del orden de cientos de miles de millones efectivos): coste variable, sin inversión inicial, calidad alta. (2) Llama 3.1 70B en servidor propio con 2 GPUs profesionales, inversión ~25.000 € + 350 €/mes de electricidad, calidad alta pero requiere ingeniero. (3) Llama 3.1 8B en una sola GPU de gaming, inversión ~2.500 €, calidad media-baja para razonamiento jurídico complejo. Eligieron la opción 1 para no construir un equipo de MLOps por dos casos de uso.