GPU / TPU (hardware de IA)
Las GPU (Graphics Processing Units) y las TPU (Tensor Processing Units) son los chips especializados donde se entrenan y ejecutan los modelos de IA. La GPU nació para gráficos pero resultó ideal para los cálculos paralelos masivos de las redes neuronales. NVIDIA domina este mercado con cuota de más del 90% (chips H100, H200, B100, B200). Google fabrica TPUs propias, AMD fabrica GPUs alternativas (MI300X), y hay startups (Groq, Cerebras, Tenstorrent) con propuestas específicas para inferencia.
Definición rápida
Las GPU (Graphics Processing Units) y las TPU (Tensor Processing Units) son los chips especializados donde se entrenan y ejecutan los modelos de IA. La GPU nació para gráficos pero resultó ideal para los cálculos paralelos masivos de las redes neuronales. NVIDIA domina este mercado con cuota de más del 90% (chips H100, H200, B100, B200). Google fabrica TPUs propias, AMD fabrica GPUs alternativas (MI300X), y hay startups (Groq, Cerebras, Tenstorrent) con propuestas específicas para inferencia.
Explicación ampliada
Por qué importa para tu empresa
Para una pyme, las GPUs y TPUs casi nunca se compran directamente. Lo que se compra es <em>uso de inferencia</em> vía APIs de los grandes proveedores, que internamente usan estos chips. Sin embargo, conocer el término y su dinámica de mercado importa por dos motivos. Primero: los precios de inferencia bajan o suben en gran parte por la disponibilidad de GPUs (escasez sostenida significa precios altos). Segundo: cuando una empresa evalúa correr modelos open-source en local, la decisión GPU es el factor técnico-económico más relevante.
Ejemplo concreto
Una empresa de servicios profesionales que evaluaba desplegar IA en local hizo un cálculo concreto. Para ejecutar Llama 4 70B cuantizado a INT4 con velocidad razonable necesitaban una GPU NVIDIA RTX 6000 Ada (48 GB, 8.500 euros), o como alternativa una NVIDIA H100 80 GB (28.000 euros, más rápida pero sobredimensionada para su volumen). Eligieron la primera. Compraron también un servidor de soporte con CPU y 256 GB de RAM (3.500 euros), y contrataron a un técnico para configuración inicial (1.200 euros). Inversión total: 13.200 euros. Este "servidor de IA local" sirve a 80 empleados con consultas diarias y se amortiza frente a la API equivalente en aproximadamente 14 meses.