El Observatorio de la IA
Riesgos y limitaciones

Deepfake

Un deepfake es una imagen, audio o vídeo manipulado o generado completamente por IA en el que una persona real aparece diciendo o haciendo algo que nunca dijo o hizo. Combina técnicas de generación de imagen, síntesis de voz y animación facial. Aunque tiene usos legítimos (doblaje, cine), su variante maliciosa (suplantación para fraude, contenido pornográfico no consentido, desinformación) es uno de los riesgos sociales más visibles de la IA generativa.

Por Ana María González Actualizado: 28 de abril de 2026 Verificado vigente: 30 de abril de 2026

Definición rápida

Respuesta directa

Un deepfake es una imagen, audio o vídeo manipulado o generado completamente por IA en el que una persona real aparece diciendo o haciendo algo que nunca dijo o hizo. Combina técnicas de generación de imagen, síntesis de voz y animación facial. Aunque tiene usos legítimos (doblaje, cine), su variante maliciosa (suplantación para fraude, contenido pornográfico no consentido, desinformación) es uno de los riesgos sociales más visibles de la IA generativa.

Explicación ampliada

La calidad de los deepfakes ha crecido a velocidad política. En 2018 los primeros deepfakes accesibles eran toscos y reconocibles. En 2026 un vídeo de 30 segundos producido con herramientas comerciales pasa la prueba visual de un espectador medio sin marcas evidentes de manipulación. La voz sintética clonada de una persona real con 30 segundos de muestra es indistinguible de la voz original en una llamada telefónica. Los casos de uso maliciosos más frecuentes en empresa son tres. <strong>Fraude del CEO con voz</strong>: el atacante llama a un empleado de finanzas usando la voz clonada del director general pidiendo una transferencia urgente; en 2024 una multinacional perdió 25 millones de dólares en un solo caso documentado. <strong>Suplantación en videoconferencia</strong>: deepfake en tiempo real en Zoom o Teams; técnicamente posible en 2026 aunque aún complejo. <strong>Contenido reputacional</strong>: vídeo falso de un directivo diciendo barbaridades, distribuido para dañar la reputación de empresa o persona. Las defensas combinan tecnología y procedimiento. Técnicamente: marcas de agua digitales en contenidos generados por IA (obligatorias bajo AI Act), detectores de deepfake (precisión actual 70-90% según el caso, en mejora pero no perfectos), autenticación de vídeo con firma criptográfica de origen. Procedimentalmente: doble factor para cualquier transferencia o decisión importante (la voz no basta), palabras clave acordadas previamente entre directivo y equipo financiero, formación al personal sobre el riesgo.

Por qué importa para tu empresa

Aplicación práctica

Para cualquier empresa con personal de finanzas, RRHH o atención a directivos, el riesgo de deepfake con fines de fraude es real y está creciendo rápido. La regla práctica más simple y efectiva: ninguna decisión financiera importante (transferencia, cambio de cuenta de proveedor, autorización de contrato) se ejecuta a partir de una sola comunicación verbal, ni siquiera si parece venir del jefe. Doble verificación por canal independiente. Esta regla cuesta cero euros y bloquea el 95% de los ataques.

Ejemplo concreto

Caso real

Una empresa familiar de Murcia con 80 empleados recibió una llamada del supuesto director general (que estaba realmente de vacaciones) pidiendo a la directora financiera una transferencia urgente de 95.000 euros a un proveedor nuevo "para cerrar un acuerdo". La voz era idéntica. La directora financiera, formada específicamente sobre este riesgo dos meses antes, siguió el procedimiento: "perfecto Antonio, te envío un mensaje al móvil para confirmar". El verdadero director respondió que no había llamado. La empresa reportó el incidente a la policía y a su banco. Estimación del fraude evitado: los 95.000 euros, más costes de litigio.