¡Atención! así puedes prevenir estafas por clonación de voz con inteligencia artificial

En la era digital, los estafadores han encontrado nuevas formas de estafa, toma precauciones

Xalapa | 2025-03-14

En la era de la inteligencia artificial, los estafadores han encontrado nuevas formas de engañar a las personas, y una de las más alarmantes es la clonación de voz. Mediante herramientas avanzadas de IA, los delincuentes pueden imitar la voz de familiares, amigos o incluso figuras públicas para cometer fraudes.

Síguenos en nuestro canal de WhatsApp y recibe las noticias de todo Veracruz en tiempo real


 ¿Cómo funciona la clonación de voz?

Los estafadores utilizan grabaciones de voz obtenidas de redes sociales, mensajes de voz o llamadas telefónicas para entrenar modelos de IA capaces de replicar el tono, ritmo y expresiones de una persona. Luego, usan esta voz clonada para hacer llamadas falsas, solicitando dinero o información personal.

Señales de alerta

Si recibes una llamada sospechosa, presta atención a estos indicios:

- Un tono de voz ligeramente mecánico o con pausas inusuales.

- Solicitudes urgentes de dinero o datos personales.

- Mensajes de voz que parecen editados o poco naturales.

¿Cómo protegerte?

Verifica la identidad: Si alguien te llama pidiendo dinero, corta la llamada y comunícate por otro medio para confirmar.

Crea una palabra clave: Acuerda con familiares y amigos una palabra clave secreta para identificar llamadas legítimas.

- Limita la exposición de tu voz: Evita compartir audios o videos con tu voz en redes públicas.

Utiliza la autenticación en dos pasos: Protege tus cuentas para evitar que los estafadores accedan a más información sobre ti.

Reporta intentos de fraude: Si sospechas de una estafa, avisa a las autoridades y a tus contactos.

Las estafas con inteligencia artificial están en aumento, pero con precaución y medidas de seguridad, puedes evitar ser víctima de este tipo de fraude. ¡Comparte esta información y protégete! 

.
.