IA

La clonación de voz con IA y los deepfakes abren una nueva brecha de ciberseguridad

Logicalis Spain alerta sobre el auge de estas herramientas en plataformas como Instagram, donde la clonación de voz y la sincronización labial facilitan suplantaciones altamente realistas.

Cibersur.com | 14/10/2025 11:04
La Inteligencia Artificial está transformando la comunicación digital pero, tal y como advierten desde Logicalis Spain, proveedor global de servicios de TI y soluciones digitales, también está abriendo una nueva puerta al fraude y la suplantación. 

En las últimas semanas, influencers del ámbito nacional han comenzado a publicar vídeos en los que, gracias a IA generativa, no solo traducen sus contenidos a otros idiomas, sino que replican su propia voz y sincronizan el movimiento de sus labios, generando una versión artificial que habla de forma natural como si fuera real. 

Desde Logicalis advierten de que este fenómeno representa un punto de inflexión. “La combinación de IA generativa, clonación de voz y sincronización labial está alcanzando un nivel de realismo que plantea un riesgo claro de manipulación, suplantación y pérdida de confianza digital”, alerta un Ramón Rico Gómez, Cybersecurity Operations Manager. “Empieza a ser un tema serio. Hoy cualquiera puede hacerte decir lo que nunca has dicho, en cualquier idioma” continua. 

En esta línea, los riesgos son múltiples. Además del impacto en derechos de imagen y autenticidad, esta tecnología plantea implicaciones críticas en materia de ciberseguridad. Cada vez es más difícil verificar la autenticidad de una voz o un vídeo. 

Estudios recientes señalan que los usuarios solo logran identificar correctamente un deepfake vocal en el 73% de los casos, y los sistemas automáticos de detección fallan con facilidad ante audios realistas o manipulados.

La amenaza no es hipotética, los deepfakes ya se utilizan para fraudes reales. De hecho, tal y como explica Rico, “un caso en Reino Unido acabó con la transferencia de 25 millones de dólares tras una llamada con la voz clonada de un directivo”.
 
Según McAfee, una de cada diez personas ha recibido mensajes de voz generados por IA simulando la voz de alguien conocido, y el 77% de ellas perdió dinero como consecuencia. Además, el 85% de las empresas medianas y grandes ha sufrido al menos un intento de ataque mediante deepfake en el último año, con un coste medio estimado de 280.000 dólares por incidente.

Instagram —una de las plataformas donde más creadores comparten contenido— cuenta con más de 2.000 millones de usuarios activos mensuales en todo el mundo, lo que amplifica de forma exponencial el alcance potencial de este tipo de manipulaciones.

“Estamos ante un nuevo frente de la ciberdelincuencia que combina ingeniería social avanzada con IA generativa”, advierte Logicalis. “Ya no basta con desconfiar de un correo sospechoso,  ahora una voz, una imagen o un vídeo pueden parecer completamente reales. La confianza digital está en juego”.

Los expertos insisten en la necesidad de una respuesta coordinada. Entre las medidas clave, destacan la autenticación mediante marcas de agua digitales, el uso de firmas invisibles, tecnologías de verificación forense y protocolos híbridos humano-IA para identificar manipulaciones. También reclaman que plataformas, reguladores y autoridades aceleren el desarrollo de marcos legales que protejan a personas y empresas frente al uso malicioso de estas tecnologías.

“Si no establecemos límites claros, cualquiera podrá ser clonado digitalmente en segundos. El impacto sobre la identidad digital y la reputación será enorme. Es el momento de actuar”, concluye Ramón Rico Gómez, Cybersecurity Operations Manager de Logicalis. 



Envíanos tus Comentarios

Cibersur no se hace responsable de las opiniones reflejadas en los comentarios
introducir este texto en la contenedor de la izquierda recargar
Comentarios - total 0


Quienes Somos | Publicidad | Suscripción | Contacto | Nota Legal
© CIBERSUR Edita CPS S.L. en Sevilla (España, UE)