El Observatorio de la IA
Ciberaula Observatorio IA Glosario Riesgos y limitaciones Sobreconfianza en la IA (overreliance)
Riesgos y limitaciones

Sobreconfianza en la IA (overreliance)

La sobreconfianza en la IA es el patrón humano de aceptar las respuestas de un asistente IA sin contrastarlas, especialmente cuando suenan competentes o cuando la persona está cansada o tiene prisa. Es un problema sutil porque rara vez es deliberado: la IA acierta tantas veces que el usuario relaja la verificación y termina cometiendo errores en el porcentaje pequeño pero real en el que la IA falla.

Por Ana María González Actualizado: 28 de abril de 2026 Verificado vigente: 30 de abril de 2026

Definición rápida

Respuesta directa

La sobreconfianza en la IA es el patrón humano de aceptar las respuestas de un asistente IA sin contrastarlas, especialmente cuando suenan competentes o cuando la persona está cansada o tiene prisa. Es un problema sutil porque rara vez es deliberado: la IA acierta tantas veces que el usuario relaja la verificación y termina cometiendo errores en el porcentaje pequeño pero real en el que la IA falla.

Explicación ampliada

La sobreconfianza es el ejemplo clásico de un sesgo cognitivo amplificado por una herramienta. Los humanos calibramos nuestra confianza en una fuente según su tasa histórica de acierto: una compañera de trabajo que acertó muchas veces es creíble la siguiente. La IA dispara este mecanismo: como acierta el 90% de las veces en tareas conocidas, y además presenta sus respuestas con tono confiado y bien estructurado, el usuario tiende a aceptarlas sin verificar. El problema es que el 10% de error no se distribuye al azar de forma evidente. Algunas categorías de error son sistemáticas: cálculos numéricos en tareas matemáticamente complejas, hechos específicos sobre personas o eventos poco comunes, citas inventadas con apariencia de reales (alucinaciones), cifras estadísticas que parecen plausibles pero no aparecen en ninguna fuente. Cuando un usuario sobreconfiado pega esos contenidos en un informe, una sentencia, un artículo o un correo a cliente, el error se propaga. Las profesiones más afectadas son las que combinan alta presión de tiempo con producción de contenido textual: derecho (varios casos en EE.UU. de abogados sancionados por citar precedentes inventados por ChatGPT), medicina (riesgo de diagnostico mediado por IA aceptado sin contraste), periodismo, consultoría. La AI Act la reconoce explícitamente y obliga a sistemas de alto riesgo a incluir mecanismos de verificación humana significativa, no nominal. Las defensas son organizativas, no técnicas: cultura de verificar siempre las cifras y citas con fuente externa, doble firma para contenido crítico, formación específica sobre los modos de fallo de la IA, diseño de procesos donde la IA es asistente y no decisora.

Por qué importa para tu empresa

Aplicación práctica

Para cualquier empresa que adopta IA, la sobreconfianza es probablemente el riesgo más importante en términos de impacto acumulado, más incluso que las alucinaciones puntuales. Una alucinación se detecta y se corrige; la sobreconfianza es el caldo de cultivo donde la alucinación llega al destinatario sin filtro. El antidoto cultural es repetir hasta el cansancio: la IA es asistente, tú eres responsable. Las cifras se verifican. Las citas se comprueban. La firma final es humana.

Ejemplo concreto

Caso real

Un bufete británico fue sancionado en 2025 por presentar ante un tribunal un escrito que citaba seis precedentes legales que no existían, generados por ChatGPT. El abogado responsable explicó que las citas eran tan detalladas y verosímiles (número de causa, jueces, citas textuales) que asumió que eran reales sin verificarlas en la base de datos oficial. La sanción fue de 4.500 libras más sanción disciplinaria ante el Colegio. Tras el incidente el bufete adoptó una política formal: <em>cualquier cita legal en cualquier escrito generado o asistido por IA debe verificarse contra Westlaw o LexisNexis antes de firmar, sin excepciones</em>.