Mezcla de expertos (MoE)
Mezcla de expertos (Mixture of Experts) es una arquitectura de modelo en la que, en lugar de un solo "cerebro" gigante, hay varios "expertos" especializados y un enrutador que decide cuáles usar para cada palabra. Permite tener modelos con muchísimos parámetros totales pero un coste por inferencia mucho menor.
Definición rápida
Mezcla de expertos (Mixture of Experts) es una arquitectura de modelo en la que, en lugar de un solo "cerebro" gigante, hay varios "expertos" especializados y un enrutador que decide cuáles usar para cada palabra. Permite tener modelos con muchísimos parámetros totales pero un coste por inferencia mucho menor.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa que evalúa modelos abiertos para uso interno, el MoE es lo que permite que un modelo "tipo GPT-4" corra en hardware más razonable de lo que parecía hace dos años. DeepSeek-V3 es el ejemplo más comentado: calidad competitiva con los mejores modelos cerrados, distribución abierta, ejecutable en una máquina con 8 GPUs profesionales (cara pero asumible para una mediana empresa o un consorcio). Es la arquitectura que está acercando la IA frontera al on-premise.
Ejemplo concreto
Un grupo editorial español comparó dos modelos abiertos para resúmenes de prensa: Llama 3.3 70B (denso) y Mixtral 8x22B (MoE, ~141B totales pero ~39B activos). Mixtral dio mejor calidad en pruebas A/B con sus editores y, sorprendentemente, fue un 30% más rápido por respuesta en su servidor de 8 GPUs, porque solo activaba parte de sus parámetros. Coste de hardware similar; coste eléctrico también. Eligieron Mixtral.