El Observatorio de la IA
Ciberaula Observatorio IA Glosario Infraestructura y técnica Capa de orquestación (gateway LLM)
Infraestructura y técnica

Capa de orquestación (gateway LLM)

Es una capa de software intermedia entre las aplicaciones de la empresa y los modelos de IA que centraliza el acceso: enruta cada petición al modelo adecuado, aplica políticas (coste, seguridad, registro), permite cambiar de proveedor sin tocar las aplicaciones y da control y visibilidad sobre todo el uso de IA. Es la pieza que convierte un uso disperso de IA en una plataforma gobernable.

Por Ana María González Actualizado: 16 de mayo de 2026

Definición rápida

Respuesta directa

Es una capa de software intermedia entre las aplicaciones de la empresa y los modelos de IA que centraliza el acceso: enruta cada petición al modelo adecuado, aplica políticas (coste, seguridad, registro), permite cambiar de proveedor sin tocar las aplicaciones y da control y visibilidad sobre todo el uso de IA. Es la pieza que convierte un uso disperso de IA en una plataforma gobernable.

Explicación ampliada

Cuando una empresa usa IA en varios sitios, lo habitual sin planificación es que cada aplicación llame directamente a un proveedor, con su propia configuración, su clave, sus prompts y sin visibilidad central. Eso genera lock-in, descontrol de coste, inconsistencia y un punto ciego de gobernanza. La capa de orquestación (a veces llamada gateway LLM o pasarela de modelos) introduce un intermediario único por el que pasan todas las peticiones de IA de la organización. Sus funciones típicas: enrutamiento inteligente (mandar cada tipo de consulta al modelo más adecuado por calidad/coste —por ejemplo, un SLM barato para lo simple y un gran modelo solo para lo complejo—); abstracción del proveedor (las aplicaciones hablan con la pasarela, no con un proveedor concreto, lo que reduce el lock-in y permite cambiar de modelo sin reescribir aplicaciones); aplicación centralizada de políticas (límites de coste, filtrado de datos sensibles antes de salir, controles de seguridad); y observabilidad (registro centralizado de qué se consulta, cuánto cuesta, qué calidad, base para auditoría y para la gestión de coste). No es necesaria para un uso pequeño y aislado, pero a partir de cierta escala o criticidad es la diferencia entre una colección de integraciones frágiles y una plataforma de IA gobernada. Conceptualmente es a la IA lo que un punto de control centralizado es a cualquier recurso compartido: el lugar donde se aplican coherencia, control y visibilidad.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa con IA en varios procesos, no tener capa de orquestación significa lock-in, coste sin control y cero visibilidad central. La regla práctica: por debajo de cierta escala no hace falta; a partir de varios usos o de usos críticos, una pasarela única (enrutamiento por coste/calidad, abstracción de proveedor, políticas y registro centralizados) es lo que hace la IA gobernable, negociable y auditable. Es además donde se materializan en la práctica el control de TCO y la mitigación del lock-in.

Ejemplo concreto

Caso real

Una empresa tenía seis aplicaciones llamando cada una directamente a proveedores de IA, con claves y configuraciones dispersas: imposible saber el coste total, cada una atada a su proveedor y sin filtro común de datos sensibles. Introdujeron una capa de orquestación: todas las aplicaciones pasaron a llamarla a ella. Resultado: visibilidad total del coste por aplicación, enrutamiento de lo simple a un SLM barato (ahorro notable), posibilidad de cambiar de proveedor sin tocar las apps, y un punto único donde aplicar filtrado de datos y registro para auditoría.