Xalapa | 2025-03-14
En la era de la inteligencia artificial, los estafadores han encontrado nuevas formas de engañar a las personas, y una de las más alarmantes es la clonación de voz. Mediante herramientas avanzadas de IA, los delincuentes pueden imitar la voz de familiares, amigos o incluso figuras públicas para cometer fraudes.
Síguenos en nuestro canal de WhatsApp y recibe las noticias de todo Veracruz en tiempo real
Los estafadores utilizan grabaciones de voz obtenidas de redes sociales, mensajes de voz o llamadas telefónicas para entrenar modelos de IA capaces de replicar el tono, ritmo y expresiones de una persona. Luego, usan esta voz clonada para hacer llamadas falsas, solicitando dinero o información personal.
Señales de alerta
Si recibes una llamada sospechosa, presta atención a estos indicios:
- Un tono de voz ligeramente mecánico o con pausas inusuales.
- Solicitudes urgentes de dinero o datos personales.
- Mensajes de voz que parecen editados o poco naturales.
- Verifica la identidad: Si alguien te llama pidiendo dinero, corta la llamada y comunícate por otro medio para confirmar.
- Crea una palabra clave: Acuerda con familiares y amigos una palabra clave secreta para identificar llamadas legítimas.
- Limita la exposición de tu voz: Evita compartir audios o videos con tu voz en redes públicas.
- Utiliza la autenticación en dos pasos: Protege tus cuentas para evitar que los estafadores accedan a más información sobre ti.
- Reporta intentos de fraude: Si sospechas de una estafa, avisa a las autoridades y a tus contactos.
Las estafas con inteligencia artificial están en aumento, pero con precaución y medidas de seguridad, puedes evitar ser víctima de este tipo de fraude. ¡Comparte esta información y protégete!