El Observatorio de la IA
Ciberaula Observatorio IA Glosario Infraestructura y técnica GPU / TPU (hardware de IA)
Infraestructura y técnica

GPU / TPU (hardware de IA)

Las GPU (Graphics Processing Units) y las TPU (Tensor Processing Units) son los chips especializados donde se entrenan y ejecutan los modelos de IA. La GPU nació para gráficos pero resultó ideal para los cálculos paralelos masivos de las redes neuronales. NVIDIA domina este mercado con cuota de más del 90% (chips H100, H200, B100, B200). Google fabrica TPUs propias, AMD fabrica GPUs alternativas (MI300X), y hay startups (Groq, Cerebras, Tenstorrent) con propuestas específicas para inferencia.

Por Ana María González Actualizado: 28 de abril de 2026

Definición rápida

Respuesta directa

Las GPU (Graphics Processing Units) y las TPU (Tensor Processing Units) son los chips especializados donde se entrenan y ejecutan los modelos de IA. La GPU nació para gráficos pero resultó ideal para los cálculos paralelos masivos de las redes neuronales. NVIDIA domina este mercado con cuota de más del 90% (chips H100, H200, B100, B200). Google fabrica TPUs propias, AMD fabrica GPUs alternativas (MI300X), y hay startups (Groq, Cerebras, Tenstorrent) con propuestas específicas para inferencia.

Explicación ampliada

Entrenar un modelo grande requiere miles de GPUs trabajando en paralelo durante meses. El cluster con que OpenAI entrenó GPT-4 tenía alrededor de 25.000 GPUs A100, valor estimado: 500 millones de dólares solo en hardware. Los siguientes modelos (GPT-5, Claude Opus 4) usaron clusters de más de 100.000 GPUs H100 y B200. Esa concentración de demanda explica por qué NVIDIA pasó de capitalización bursatil de 250 mil millones en 2022 a más de 3 billones de dólares en 2024-2025. Para <strong>entrenamiento</strong>, las GPUs más usadas en 2026 son la NVIDIA H200 y la nueva B200/B300 (arquitectura Blackwell, lanzada en 2025), con TPUs Google v6e como alternativa principal. Para <strong>inferencia</strong>, donde la demanda es muchas veces mayor en número de chips pero con requisitos distintos, hay más competencia: NVIDIA H100 y L40, Google TPUs v5e, AMD MI300X, Groq LPU (especializada en latencia ultra-baja), Cerebras WSE-3 (la mayor oblea de chip del mundo). La relevancia geopolítica es enorme. Estados Unidos restringe la exportación de chips avanzados a China desde 2022, lo cual ha empujado a China a desarrollar alternativas propias (Huawei Ascend) y modelos más eficientes (DeepSeek). Europa prácticamente no fabrica chips de IA propios; depende de NVIDIA (americana, fabricación en Taiwan) lo que es uno de los argumentos más citados a favor de la soberanía digital europea y la inversión en chips locales.

Por qué importa para tu empresa

Aplicación práctica

Para una pyme, las GPUs y TPUs casi nunca se compran directamente. Lo que se compra es <em>uso de inferencia</em> vía APIs de los grandes proveedores, que internamente usan estos chips. Sin embargo, conocer el término y su dinámica de mercado importa por dos motivos. Primero: los precios de inferencia bajan o suben en gran parte por la disponibilidad de GPUs (escasez sostenida significa precios altos). Segundo: cuando una empresa evalúa correr modelos open-source en local, la decisión GPU es el factor técnico-económico más relevante.

Ejemplo concreto

Caso real

Una empresa de servicios profesionales que evaluaba desplegar IA en local hizo un cálculo concreto. Para ejecutar Llama 4 70B cuantizado a INT4 con velocidad razonable necesitaban una GPU NVIDIA RTX 6000 Ada (48 GB, 8.500 euros), o como alternativa una NVIDIA H100 80 GB (28.000 euros, más rápida pero sobredimensionada para su volumen). Eligieron la primera. Compraron también un servidor de soporte con CPU y 256 GB de RAM (3.500 euros), y contrataron a un técnico para configuración inicial (1.200 euros). Inversión total: 13.200 euros. Este "servidor de IA local" sirve a 80 empleados con consultas diarias y se amortiza frente a la API equivalente en aproximadamente 14 meses.