El Observatorio de la IA
Riesgos y limitaciones

Alucinación

Una alucinación ocurre cuando un modelo de IA genera información que parece cierta pero es falsa o inventada. El modelo no miente conscientemente: completa texto basándose en patrones estadísticos sin distinguir si lo que produce es verdadero. Es la principal causa de errores graves al usar IA en contextos profesionales y exige siempre verificación humana antes de actuar sobre la respuesta.

Por Ana María González Actualizado: 27 de abril de 2026

Definición rápida

Respuesta directa

Una alucinación ocurre cuando un modelo de IA genera información que parece cierta pero es falsa o inventada. El modelo no miente conscientemente: completa texto basándose en patrones estadísticos sin distinguir si lo que produce es verdadero. Es la principal causa de errores graves al usar IA en contextos profesionales y exige siempre verificación humana antes de actuar sobre la respuesta.

Explicación ampliada

Las alucinaciones son una limitación intrínseca de los modelos de lenguaje grandes (LLM), no un fallo puntual que se vaya a resolver con la próxima versión. El modelo aprende a predecir qué palabra sigue a qué otra a partir de millones de textos, pero nunca consulta una base de conocimiento en tiempo de respuesta: simplemente continúa la frase con lo que estadísticamente parece coherente. Cuando se le pide algo sobre lo que tiene poca o ninguna información, en lugar de decir "no lo sé", suele rellenar el hueco con una respuesta plausible inventada. Esto incluye nombres de personas que no existen, citas de leyes inexistentes, sentencias judiciales falsas, datos numéricos fabricados, autores atribuidos erróneamente o referencias bibliográficas inventadas con todos sus campos completos. Las técnicas RAG (búsqueda aumentada con recuperación) y el grounding con fuentes documentales reducen significativamente la frecuencia de alucinaciones, pero no las eliminan. Los agentes con búsqueda web en vivo alucinan menos cuando contestan sobre hechos verificables, pero pueden alucinar al interpretar lo que han leído. La forma operativa de gestionar este riesgo en la empresa es asumir que toda salida de IA es un primer borrador que requiere validación humana proporcional al impacto de la decisión.

Por qué importa para tu empresa

Aplicación práctica

Para una pyme, una alucinación de IA en el sitio equivocado puede traducirse en problemas reales: una cláusula contractual generada que cita una ley que no existe, un correo a un cliente con un dato fiscal incorrecto, o una respuesta de chatbot que promete algo que la empresa no puede cumplir. La empresa es responsable del contenido que publica o envía aunque lo haya generado una IA. La regla práctica: cuanto mayor sea el impacto del error (legal, financiero, reputacional), mayor debe ser la verificación humana antes de usar la respuesta.

Ejemplo concreto

Caso real

Un asesor laboral de una pyme pregunta a ChatGPT por el plazo exacto para recurrir un alta de oficio en Seguridad Social. El modelo responde con seguridad: "30 días hábiles según el artículo 71 de la LPACAP". El asesor lo cita en un escrito al cliente. Cuando lo revisa, el plazo real es de un mes natural (no 30 días hábiles) y el artículo aplicable es distinto. La IA combinó dos plazos parecidos de procedimientos vecinos en una respuesta verosímil pero incorrecta. Si el escrito hubiera salido sin revisar, el cliente habría perdido la opción de recurrir.