El Observatorio de la IA
Ciberaula Observatorio IA Glosario Riesgos y limitaciones Sesgo algorítmico
Riesgos y limitaciones

Sesgo algorítmico

El sesgo algorítmico es la tendencia de un sistema de IA a producir resultados sistemáticamente desfavorables para ciertos grupos (por género, edad, origen, discapacidad u otra característica) debido a patrones presentes en los datos con los que se entrenó. No es intencional, pero sus consecuencias son reales y, en muchos casos, ilegales. En IA generativa aparece en respuestas, recomendaciones y resúmenes.

Por Ana María González Actualizado: 27 de abril de 2026 Verificado vigente: 30 de abril de 2026

Definición rápida

Respuesta directa

El sesgo algorítmico es la tendencia de un sistema de IA a producir resultados sistemáticamente desfavorables para ciertos grupos (por género, edad, origen, discapacidad u otra característica) debido a patrones presentes en los datos con los que se entrenó. No es intencional, pero sus consecuencias son reales y, en muchos casos, ilegales. En IA generativa aparece en respuestas, recomendaciones y resúmenes.

Explicación ampliada

Los modelos aprenden de datos del pasado, y el pasado contiene desigualdades estructurales. Si una IA de selección de personal se entrena con currículos históricos de una empresa que contrató mayoritariamente hombres para puestos técnicos, tenderá a puntuar peor a las mujeres. Si una IA generativa se entrena con texto donde "enfermera" aparece predominantemente con pronombres femeninos, asumirá género al hablar de la profesión. Los sesgos pueden ser sutiles: el mismo currículo con un nombre extranjero recibe valoraciones distintas en algunas pruebas, recomendaciones de productos asumen capacidad económica según el código postal, sistemas de detección facial fallan más con pieles oscuras. En IA generativa, los sesgos aparecen en el lenguaje (ejemplos por defecto, pronombres, asociaciones), en las imágenes generadas (qué representa "directivo" o "limpiadora"), y en los resúmenes (qué información se conserva como relevante). Las técnicas de alineamiento que aplican OpenAI, Anthropic y Google reducen los sesgos más obvios, pero no los eliminan: pruebas independientes siguen mostrando diferencias estadísticas significativas en respuestas según el grupo demográfico mencionado en el prompt. La gestión empresarial pasa por (1) saber que existe, (2) probar el sistema con casos diversos antes de desplegarlo, (3) tener un canal de detección y corrección, (4) documentar la diligencia debida (importante para AI Act y casos de selección o concesión de servicios).

Por qué importa para tu empresa

Aplicación práctica

Si tu empresa usa IA en decisiones que afectan a personas (selección de personal, concesión de crédito, atención al cliente, evaluación), el sesgo algorítmico puede traducirse en discriminación legalmente sancionable. La AI Act europea clasifica varios de esos casos como sistemas de alto riesgo con obligaciones reforzadas. Aunque uses servicios estándar (no entrenes modelos), eres responsable del uso que haces de ellos.

Ejemplo concreto

Caso real

Una pyme de selección utiliza una IA generativa para puntuar y ordenar candidatos por adecuación a una oferta. Internamente, el modelo penaliza levemente nombres que no son de origen español por correlación con factores históricos en sus datos de entrenamiento. Si la pyme no audita el comportamiento con conjuntos de prueba diversos, no detecta el problema. El día que un candidato no seleccionado lo recurra, la empresa tendrá que demostrar diligencia debida, y "no sabíamos cómo funcionaba el modelo por dentro" no es defensa válida.