El Observatorio de la IA
Ciberaula Observatorio IA Glosario Modelos de lenguaje (LLM) Alucinación factual vs de razonamiento
Modelos de lenguaje (LLM)

Alucinación factual vs de razonamiento

No todas las alucinaciones de un modelo son iguales. La alucinación factual es inventar un dato concreto falso (una fecha, una cifra, una cita legal). La alucinación de razonamiento es construir una cadena lógica que suena coherente pero llega a una conclusión inválida. Distinguirlas importa porque se detectan y se mitigan de forma distinta.

Por Ana María González Actualizado: 16 de mayo de 2026

Definición rápida

Respuesta directa

No todas las alucinaciones de un modelo son iguales. La alucinación factual es inventar un dato concreto falso (una fecha, una cifra, una cita legal). La alucinación de razonamiento es construir una cadena lógica que suena coherente pero llega a una conclusión inválida. Distinguirlas importa porque se detectan y se mitigan de forma distinta.

Explicación ampliada

El término "alucinación" engloba fenómenos diferentes que conviene separar para gestionarlos. La alucinación factual es la más conocida: el modelo afirma con seguridad un hecho falso —una sentencia que no existe, un artículo de ley con número equivocado, una estadística inventada—. Se mitiga sobre todo con grounding (anclar las respuestas a fuentes verificables vía RAG) y con verificación humana de los datos críticos. La alucinación de razonamiento es más insidiosa: el modelo no inventa necesariamente datos, pero encadena pasos lógicos defectuosos hacia una conclusión equivocada, con una narrativa tan fluida que parece sólida. Es especialmente peligrosa en análisis (jurídico, financiero, técnico) porque el error no salta a la vista como un dato falso; hay que seguir el razonamiento para detectarlo. Los modelos de razonamiento de 2025-2026, que muestran su cadena de pensamiento, ayudan a auditar este segundo tipo, pero también pueden producir cadenas largas y persuasivas que son incorrectas. Una empresa madura en IA distingue ambos tipos en su política de uso y forma a su personal para reconocer cada uno.

Por qué importa para tu empresa

Aplicación práctica

Para una empresa, mezclar ambos tipos de alucinación lleva a controles insuficientes. La regla práctica: contra la factual, exigir que las afirmaciones verificables vayan ancladas a fuente (RAG con cita) y comprobar los datos críticos; contra la de razonamiento, no aceptar conclusiones de análisis sin que un humano competente revise la cadena lógica, no solo el resultado. El error de razonamiento bien escrito es el que más daño hace porque inspira confianza injustificada.

Ejemplo concreto

Caso real

En una sesión de formación, una empresa puso a prueba un asistente con un caso de cálculo de indemnización. El modelo no inventó ninguna ley (cero alucinación factual) pero aplicó correctamente la norma equivocada al supuesto, llegando a una cifra plausible pero errónea con un razonamiento de seis pasos impecablemente redactado. Ningún participante sin formación jurídica detectó el fallo a primera lectura. El ejercicio se convirtió en la pieza central de su política de uso: ninguna conclusión analítica se acepta sin revisión humana de la cadena de razonamiento, no solo del resultado final.