¿Cómo te pueden estafar con los mensajes de voz en WhatsApp?
Esta es la modalidad de la estafa a través mensajes de voz en WhatsApp, que incluso puede darse por llamadas y videos. Conoce cómo protegerte
Una de las modalidades delincuenciales en torno a estafas virtuales gira en torno al uso de mensajes de voz en WhatsApp para engañar a los familiares y amigos de un usuario, quien probablemente primero fue una víctima del hackeo de su cuenta.
Los ciberdelincuentes tienen la capacidad de clonar la voz de una persona a través de la Inteligencia Artificial (IA) y con ello enviar notas de audio a través de esta reconocida aplicación de mensajería.
¿Cómo funciona la estafa con mensajes de voz en WhatsApp?
La Inteligencia Artificial (IA) es una herramienta tecnológica que ha ido ganando popularidad a través de los últimos años, pero a raíz de su importante utilidad internacional también ha caído en manos de ciberdelincuentes para suplantar identidades.
Diversas aplicaciones de IA no solo te permiten clonar la voz de personas famosas, sino también de personas ordinarias con la finalidad de obtener principalmente dinero o lograr realizar acciones fraudulentas.
De acuerdo a Chequeado, organización especializada en fact checking (información verificada), esta modalidad de engaño recibe el nombre de "vishing", la cual compila la palabra voice (voz, en castellano) y phishing, una técnica de suplantación de identidad para sustraer datos personales y bancarios.
De esta manera, surge el IA vishing, un tipo de fraude a través de la voz que busca estafar o engañar a la víctima haciéndole creer que habla con un familiar o amigo.
“Existen decenas de casos a nivel internacional. En Hong Kong, por ejemplo, los delincuentes engañaron a un empleado para que realizara una transferencia de 200 millones de dólares hongkoneses (unos 24 millones de euros), haciéndole creer que hablaba con su jefe”, cuentan en un informe acerca de estas estafas.
Por lo general, los especialistas sugieren que para clonar una voz con IA generativa se necesitan varios segundos de audio obtenidos de una persona; por ende, es sencillo suplantar a personajes públicos, como políticos y celebridades.
En el caso de personas comunes, esto es poco posible; sin embargo, si los ciberdelincuentes hackean una cuenta de WhatsApp u obtienen un celular robado, pueden tener acceso no solo a diversas notas de voz, sino a información personal.
Actualmente, en internet existen algunas alternativas gratuitas en línea, así como herramientas comerciales a costos accesibles para clonar la voz con IA, generar imágenes e incluso combinar ambas modalidades para crear un video fraudulento.
Recomendaciones para evitar caer en estafas de WhatsApp
Ante posibles estafas a través de mensajes de voz o intentos de hackeo en WhatsApp, la Dirección de Investigación Criminal (Dirincri) recomienda lo siguiente:
- Sospecha de los mensajes de voz que suenan como un familiar o amigo pidiéndote dinero urgentemente.
- Realiza una videollamada con la finalidad de corroborar la identidad de la persona que se está comunicando contigo.
- Desconfía de llamadas sospechosas, incluso de contactos conocidos, si se trata de un pedido de información personal o te pide dinero por alguna circunstancia.
- Evita compartir demasiada información personal en tus redes sociales o limita la privacidad de las mismas.
- Mantén siempre activa la verificación de dos pasos en tu cuenta de WhatsApp y recuerda tu pin de seis dígitos, ante robo o pérdida de tu celular ya que te servirá para recuperarlo.
Chequeado también sugiere que en los mensajes de audios o llamadas sospechosas, es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar errores en el mismo. Si es así, podría tratarse de un engaño.
Es importante mencionar que si fuiste víctima de este tipo de delitos, puedes comunicarte al número 980 122 390 de la División de Investigación de Estafas y otras defraudaciones de la Dirincri.