El Observatorio de la IA
Ciberaula Observatorio IA Glosario Conceptos fundamentales Aprendizaje supervisado, no supervisado y auto-supervisado
Conceptos fundamentales

Aprendizaje supervisado, no supervisado y auto-supervisado

Son los tres grandes paradigmas para entrenar modelos de machine learning. En supervisado el modelo aprende con ejemplos etiquetados (entrada → salida correcta). En no supervisado encuentra patrones sin etiquetas. En auto-supervisado, dominante en LLMs modernos, el modelo se entrena con datos no etiquetados pero crea sus propias etiquetas a partir del propio dato.

Por Ana María González Actualizado: 9 de mayo de 2026

Definición rápida

Respuesta directa

Son los tres grandes paradigmas para entrenar modelos de machine learning. En supervisado el modelo aprende con ejemplos etiquetados (entrada → salida correcta). En no supervisado encuentra patrones sin etiquetas. En auto-supervisado, dominante en LLMs modernos, el modelo se entrena con datos no etiquetados pero crea sus propias etiquetas a partir del propio dato.

Explicación ampliada

El aprendizaje supervisado es el más antiguo y conocido: a un modelo se le dan miles de ejemplos donde alguien ha marcado la respuesta correcta (esta foto es un perro, este email es spam, esta enfermedad tiene este pronóstico). El modelo aprende a generalizar a partir de esos ejemplos. Funciona bien cuando hay etiquetas abundantes y de calidad, pero etiquetar es caro (humanos haciendo el trabajo). El aprendizaje no supervisado no usa etiquetas: el modelo busca estructura en los datos por sí mismo. Es lo que hay detrás del clustering, la detección de anomalías y la reducción de dimensionalidad. Útil para explorar datos pero limitado en tareas concretas. El aprendizaje auto-supervisado es el truco que hizo posibles los LLMs modernos: aprovechar datos sin etiquetar (todo internet) creando una "tarea sustituta" automática. Para entrenar un modelo de lenguaje, se le tapa una palabra de cada frase y se le pide adivinar cuál era; el dato actúa como su propia etiqueta. No hace falta nadie etiquetando; basta con texto. Esta técnica es lo que permite entrenar con trillones de tokens. Variantes: masked language modeling (BERT), next-token prediction (GPT, Claude, Llama), contrastive learning (visión).

Por qué importa para tu empresa

Aplicación práctica

Para una empresa esta distinción importa al evaluar proveedores y propuestas. Cualquier proyecto que diga "vamos a entrenar un modelo supervisado para X" implica etiquetar miles de ejemplos: presupuesto y tiempo significativos, normalmente subestimados. "Auto-supervisado" en el marketing de un proveedor probablemente significa "modelo basado en LLM ajustado", lo que es bueno (no requiere etiquetar) pero no mágico. La regla práctica: si te ofrecen un sistema IA supervisado, pregunta cuántos ejemplos etiquetados necesitarán, quién los etiquetará y cuánto costará; si te ofrecen sistema basado en LLM con fine-tuning, pregunta qué datos van a usar y cómo se han preparado.

Ejemplo concreto

Caso real

Un fabricante quería un modelo IA para detectar defectos en piezas a partir de cámaras de la línea. Tres consultoras le hicieron propuestas. La consultora A planteó un modelo supervisado clásico (CNN entrenada desde cero), exigía etiquetar ~15.000 imágenes (presupuesto: 35.000 € extra, 4 meses). La consultora B planteó usar un modelo de visión preentrenado (auto-supervisado, abierto) más fine-tuning ligero con 800 imágenes etiquetadas (presupuesto: 8.000 € de etiquetado, 6 semanas). La consultora C planteó usar un modelo multimodal grande (Claude o Gemini con visión) sin entrenar, solo prompt engineering (presupuesto: cero etiquetado, 2 semanas, coste recurrente API). Eligieron la C para piloto y la B para producción tras validar. La diferencia entre paradigmas era el factor 4-10x del coste y del tiempo.