Tecnologia

Así clonan la voz para hacer estafas telefónicas, tenga cuidado con los ciberdelincuentes

descarga 1 1
descarga 1 1
Los vídeos en Instagram o TikTok son clave para conocer el timbre de voz de las víctimas

(INFOBAE)-El más reciente informe de McAfee sobre inteligencia artificial y ciberseguridad aborda directamente uno de los temas más relevantes de la actualidad con un título claro: Cuidado con el impostor artificial, advertencia sobre las estafas telefónicas con clonación de voz.

Sobre esto, Fabio Sánchez, director de Ciberseguridad de OCP TECH, señala que el fenómeno ha experimentado un crecimiento exponencial en los últimos meses y la encuesta realizada por McAfee es la más amplia hasta la fecha.

Según los datos recopilados durante el transcurso de 2023, esta nueva amenaza utiliza la tecnología de clonación de voz respaldada por IA, representando una versión moderna de las conocidas estafas telefónicas como el famoso “Hola, mamá. Tuve un accidente.”

En este tipo de estafas, un delincuente hace una llamada telefónica y crea una situación de estrés significativa, llevando a la víctima a creer que está hablando realmente con un familiar que solicita ayuda urgente (y, por supuesto, requiere el pago en efectivo para brindar la asistencia necesaria).

La incorporación de tecnología en este antiguo esquema dificulta en gran medida su detección e incluso puede lograr el objetivo sin necesidad de generar una situación estresante.

Exposición y datos personales

Tan solo en los Estados Unidos, se estima que durante 2022, esta estafa ocasionó pérdidas por un total de 2.600 millones de dólares, y esta tendencia también se está incrementando en otros países.

En el Reino Unido, por ejemplo, una variante de esta estafa llevada a cabo exclusivamente a través de WhatsApp resultó en pérdidas por 1,5 millones de libras esterlinas en tan solo cuatro meses. Asimismo, en Australia, una extendida estafa mediante mensajes de texto al mismo estilo provocó una pérdida promedio por víctima de 5.000 dólares.

Estos datos correspondientes a 2022, cuando el uso de estas tecnologías aún no estaba tan generalizado, indican que lo peor está por venir. La creciente disponibilidad y sofisticación de las herramientas de IA están transformando las reglas del ciberdelito.

Además, estas herramientas de clonación de voz respaldadas por esta tecnología son accesibles en términos de costo y sencillas de utilizar. La época en la que se requería tiempo, habilidades técnicas y talento para llevar a cabo una estafa, ahora está al alcance de cualquiera.

La disponibilidad de herramientas técnicas se combina con un factor crucial para estas prácticas: la frecuencia con la que se comparte la voz. Según McAfee, el 53% de los adultos encuestados comparten su voz en línea al menos una vez a la semana, y el 49% lo hace hasta 10 veces en el mismo período. Esto sin considerar los videos personales en plataformas como Instagram o TikTok.

Público objetivo de estas estafas
El 25% admitió haber tenido alguna experiencia relacionada con una estafa de voz con IA, siendo uno de cada diez encuestados víctima directa de estas estafas y el 15% afirmando conocer a alguien afectado. Por su parte, el 36% nunca ha oído hablar de estafas que involucran herramientas de clonación de voz, lo que resalta la necesidad de una mayor educación y conciencia sobre esta amenaza en crecimiento.

Frente al perfil de las víctimas y los escenarios utilizados por los estafadores, el 45% de los encuestados admitió que respondería positivamente a una solicitud de dinero de un amigo o ser querido. Algunos de los escenarios más exitosos creados por los estafadores incluyen accidentes automovilísticos (48%), robos (47%), pérdida de celular o billetera (43%), o una petición de ayuda de un amigo que está en el extranjero (41%).

El 40% indicó que es más probable que respondan si la solicitud proviene de su pareja o cónyuge, mientras que los padres mayores de 50 años tienen más probabilidades de responder positivamente si el mensaje proviene de un hijo (41%).

Es importante mencionar que la mayoría de los casos reportados involucran a padres o abuelos que informan que un ciberdelincuente ha clonado la voz de un hijo o nieto y se ha hecho pasar por ellos.

Qué hacer para protegerse de las estafas
Aquí están las recomendaciones para protegerse de las estafas de clonación de voz en forma de elementos individuales:

1. Establecer una “palabra segura” como un código entre familiares y amigos para situaciones de emergencia. Esto permitirá alertar tempranamente sobre posibles estafas de clonación de voz.

2. Desconfiar de la fuente, especialmente si proviene de un número desconocido. En estos casos, es mejor solicitar algunos datos adicionales para verificar la identidad de la persona con la que estás hablando, incluso llamando desde otro número.

Te puede interesar: El video viral de Jackie Chan llorando junto a su hija: todo es mentira
3. Controlar las emociones y cuestionar todo. Preguntar si la persona realmente es quien dice ser, si el contexto es creíble y si lo que te están solicitando es algo razonable. Realizar estos cuestionamientos puede marcar la diferencia.

4. Considerar selectivamente las llamadas de números desconocidos. En el entorno actual, es crucial decidir cuáles llamadas atender y cuáles ignorar. En última instancia, analizar un mensaje de buzón de voz de manera objetiva puede evitar caer en prácticamente cualquier estafa.

Estas recomendaciones ofrecen pautas prácticas para protegerse y estar alerta ante posibles estafas de clonación de voz.

TRA Digital

GRATIS
VER