Sobreconfianza en la IA (overreliance)
La sobreconfianza en la IA es el patrón humano de aceptar las respuestas de un asistente IA sin contrastarlas, especialmente cuando suenan competentes o cuando la persona está cansada o tiene prisa. Es un problema sutil porque rara vez es deliberado: la IA acierta tantas veces que el usuario relaja la verificación y termina cometiendo errores en el porcentaje pequeño pero real en el que la IA falla.
Definición rápida
La sobreconfianza en la IA es el patrón humano de aceptar las respuestas de un asistente IA sin contrastarlas, especialmente cuando suenan competentes o cuando la persona está cansada o tiene prisa. Es un problema sutil porque rara vez es deliberado: la IA acierta tantas veces que el usuario relaja la verificación y termina cometiendo errores en el porcentaje pequeño pero real en el que la IA falla.
Explicación ampliada
Por qué importa para tu empresa
Para cualquier empresa que adopta IA, la sobreconfianza es probablemente el riesgo más importante en términos de impacto acumulado, más incluso que las alucinaciones puntuales. Una alucinación se detecta y se corrige; la sobreconfianza es el caldo de cultivo donde la alucinación llega al destinatario sin filtro. El antidoto cultural es repetir hasta el cansancio: la IA es asistente, tú eres responsable. Las cifras se verifican. Las citas se comprueban. La firma final es humana.
Ejemplo concreto
Un bufete británico fue sancionado en 2025 por presentar ante un tribunal un escrito que citaba seis precedentes legales que no existían, generados por ChatGPT. El abogado responsable explicó que las citas eran tan detalladas y verosímiles (número de causa, jueces, citas textuales) que asumió que eran reales sin verificarlas en la base de datos oficial. La sanción fue de 4.500 libras más sanción disciplinaria ante el Colegio. Tras el incidente el bufete adoptó una política formal: <em>cualquier cita legal en cualquier escrito generado o asistido por IA debe verificarse contra Westlaw o LexisNexis antes de firmar, sin excepciones</em>.