En los últimos días, expertos en seguridad digital han alertado sobre una nueva modalidad de estafa a través de mensajes de voz en WhatsApp, una de las aplicaciones de mensajería más utilizadas en el mundo.
Lea También: ¿Cómo leer mensajes de WhatsApp sin que aparezca el visto?
Los ciberdelincuentes ahora cuentan con la capacidad de clonar la voz de una persona utilizando Inteligencia Artificial (IA), lo que les permite enviar mensajes de audio falsificados a través de WhatsApp.
¿Cómo operan las estafas a través de mensajes de voz en WhatsApp?
Existen diversas aplicaciones de Inteligencia Artificial (IA) que no solo permiten clonar la voz de figuras públicas, sino también la de personas comunes, con el principal objetivo de obtener dinero o ejecutar actos fraudulentos.
Según organizaciones especializadas en verificación de información, esta técnica de fraude se conoce como «vishing», una combinación de las palabras voice (voz) y phishing. Se trata de una modalidad de suplantación de identidad diseñada para robar datos personales y financieros a través de llamadas o mensajes de voz falsificados.
Lea También: Hondureña recibe fuertes críticas por no saber la canción “Tengo Un Plan”
Por lo general, los expertos indican que para clonar una voz utilizando IA generativa basta con pocos segundos de audio de una persona. Esto hace que sea relativamente fácil suplantar a figuras públicas, como políticos o celebridades, ya que se puede generar una imitación muy precisa de su voz con tan solo fragmentos mínimos de su habla.