Destilación (distillation)
La destilación es la técnica para crear un modelo pequeño y rápido a partir de uno grande y potente. El modelo grande actúa de "profesor" y el pequeño de "alumno": el pequeño se entrena imitando las respuestas del grande hasta acercarse mucho a su calidad, pero ejecutándose con una fracción del coste. Es la razón por la que existen versiones "Haiku", "Mini" o "Flash" de los modelos.
Definición rápida
La destilación es la técnica para crear un modelo pequeño y rápido a partir de uno grande y potente. El modelo grande actúa de "profesor" y el pequeño de "alumno": el pequeño se entrena imitando las respuestas del grande hasta acercarse mucho a su calidad, pero ejecutándose con una fracción del coste. Es la razón por la que existen versiones "Haiku", "Mini" o "Flash" de los modelos.
Explicación ampliada
Por qué importa para tu empresa
Para una empresa que usa IA en volumen, conocer la destilación explica por qué hay que elegir modelo: usar Opus o GPT-5.5 Standard para todo es derrochar dinero. La estrategia profesional es usar el modelo pequeño destilado por defecto y solo escalar al grande cuando la tarea concreta lo requiere. Esa decisión por caso de uso puede dividir la factura mensual de IA entre 5 y 10 sin pérdida real de calidad percibida.
Ejemplo concreto
Una empresa de e-commerce con 15.000 consultas mensuales en su asistente de soporte hizo el cálculo. Usando Claude Opus 4.7 para todo, la factura mensual estimada era de 4.200 dólares. Hizo una clasificación inicial: el 90% de las consultas eran rutinarias (estado de pedido, política de devoluciones, talla y disponibilidad) y se podían resolver perfectamente con Haiku 4.5. Solo el 10% (reclamaciones complejas, casos especiales) escalaba a Opus. El cambio bajaba la factura mensual a 480 dólares, casi 9 veces menos, sin que los clientes percibieran diferencia en calidad de respuesta.