Alucinación
Una alucinación ocurre cuando un modelo de IA genera información que parece cierta pero es falsa o inventada. El modelo no miente conscientemente: completa texto basándose en patrones estadísticos sin distinguir si lo que produce es verdadero. Es la principal causa de errores graves al usar IA en contextos profesionales y exige siempre verificación humana antes de actuar sobre la respuesta.
Definición rápida
Una alucinación ocurre cuando un modelo de IA genera información que parece cierta pero es falsa o inventada. El modelo no miente conscientemente: completa texto basándose en patrones estadísticos sin distinguir si lo que produce es verdadero. Es la principal causa de errores graves al usar IA en contextos profesionales y exige siempre verificación humana antes de actuar sobre la respuesta.
Explicación ampliada
Por qué importa para tu empresa
Para una pyme, una alucinación de IA en el sitio equivocado puede traducirse en problemas reales: una cláusula contractual generada que cita una ley que no existe, un correo a un cliente con un dato fiscal incorrecto, o una respuesta de chatbot que promete algo que la empresa no puede cumplir. La empresa es responsable del contenido que publica o envía aunque lo haya generado una IA. La regla práctica: cuanto mayor sea el impacto del error (legal, financiero, reputacional), mayor debe ser la verificación humana antes de usar la respuesta.
Ejemplo concreto
Un asesor laboral de una pyme pregunta a ChatGPT por el plazo exacto para recurrir un alta de oficio en Seguridad Social. El modelo responde con seguridad: "30 días hábiles según el artículo 71 de la LPACAP". El asesor lo cita en un escrito al cliente. Cuando lo revisa, el plazo real es de un mes natural (no 30 días hábiles) y el artículo aplicable es distinto. La IA combinó dos plazos parecidos de procedimientos vecinos en una respuesta verosímil pero incorrecta. Si el escrito hubiera salido sin revisar, el cliente habría perdido la opción de recurrir.