El Observatorio de la IA
Generación y creatividad

ControlNet

ControlNet es una técnica para controlar con precisión la composición de imágenes generadas por modelos de difusión: además del prompt de texto, le das al modelo una imagen de referencia (un esquema, un boceto, un mapa de profundidad) y obligas a que la imagen final respete esa estructura.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

ControlNet es una técnica para controlar con precisión la composición de imágenes generadas por modelos de difusión: además del prompt de texto, le das al modelo una imagen de referencia (un esquema, un boceto, un mapa de profundidad) y obligas a que la imagen final respete esa estructura.

Explicación ampliada

Con un modelo de difusión clásico (Stable Diffusion, DALL-E, Midjourney) describes lo que quieres con texto y el modelo genera una composición a su criterio: ángulo, postura del personaje, distribución de objetos, todo lo decide él. ControlNet, presentado por Zhang y Agrawala en 2023, añade una segunda entrada: una "guía" que el modelo debe seguir. Las guías más usadas son: Canny edges (bordes de una foto, para mantener su silueta), OpenPose (postura de un cuerpo humano detectado), depth maps (mapa de profundidad, para mantener la geometría 3D), scribble (un boceto a lápiz), normal maps (orientación de superficies). El resultado es un control fino sobre composición que antes era casi imposible: puedes pedir "un astronauta haciendo ballet en Marte" con una postura específica de OpenPose y el modelo generará la imagen con esa postura exacta. ControlNet se entrena como un adaptador sobre un modelo base y se ha convertido en herramienta estándar para diseñadores y profesionales que usan IA generativa con seriedad.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa con producción visual recurrente, ControlNet es el salto de "IA como gadget bonito" a "IA como herramienta de producción". Permite reproducir la misma postura en una serie de personajes, mantener una identidad de marca a través de iteraciones, generar variaciones de un producto manteniendo su forma. Sin ControlNet, la IA generativa funciona para piezas únicas; con ControlNet, funciona para series y para integrarse con flujos de diseño profesionales (Figma, Photoshop). Se ejecuta sobre Stable Diffusion gratuito o sobre Comfy UI / Automatic1111 si tienes GPU propia.

Ejemplo concreto

Caso real

Una empresa de moda generaba cabeceras de email semanales con modelos posando con su ropa. Con un generador genérico (Midjourney) cada modelo "salía como salía": cabello, postura, ángulo, todo cambiaba. Con Stable Diffusion + ControlNet (OpenPose) el equipo de diseño marcaba la postura deseada en una herramienta de OpenPose, y el modelo generaba la persona y las prendas respetando esa postura. Ahorro de tiempo: pasaron de 1,5 horas por cabecera a 25 minutos. El control sobre el resultado les permitió usar las imágenes en producción sin retoque manual.