Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
CIUDAD DE MÉXICO (apro).- La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) alertó sobre fraudes telefónicos que emplean inteligencia artificial (IA) para clonar las voces de familiares o amigos, haciéndose pasar por ellos.
Este nuevo método de los delincuentes, que se valen de la tecnología para cometer actividades ilícitas, es cada vez más común en México, por lo que las autoridades federales han advertido a la población para no caer en este tipo de engaños.
Un estudio global realizado por McAfee, compañía especializada en seguridad informática, revela que una de cada diez personas encuestadas ha recibido un mensaje de una voz clonada con IA, y el 77% han perdido dinero tras ser víctimas de estas estafas.
Los criminales recopilan fragmentos de la voz de un conocido de la víctima, usualmente a través de sus redes sociales, en videos o audios, disponibles en internet. Luego, estos son procesados por sistemas de inteligencia artificial (IA) que pueden replicar con exactitud el tono, la entonación y la pronunciación de la persona al hablar, logrando que diga cualquier mensaje, suplantando su identidad.
De esta forma, los estafadores realizan llamadas telefónicas a las víctimas, haciéndose pasar por sus familiares, amigos o conocidos, simulando una situación de emergencia como un robo, secuestro o accidente; con el fin de obtener una suma de dinero o información personal de la persona que está siendo estafada.
La Secretaría de Seguridad y Protección Ciudadana (SSPC) del Gobierno de México, a través de la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico, hace las siguientes recomendaciones para evitar ser víctima de una estafa por clonación de voz con IA.
Mantener la calma; no actuar de forma impulsiva ante la presión o la angustia, pensar con claridad permitirá identificar señales de alerta.
Ante una solicitud de dinero por una supuesta emergencia, comunicarse con la persona por otra vía.
Compartir información sobre estafas con voces clonadas con IA con amigos y familiares; estar informados sobre este tipo de delitos favorecerá la alerta y se sabrá cómo actuar.
Activar la verificación de dos pasos en aplicaciones digitales y establecer una palabra clave con familiares.
Evitar responder llamadas o mensajes de números desconocidos, y en caso de hacerlo, nunca brindar información hasta confirmar la autenticidad de la fuente.
Proteger la privacidad de la voz; evitar compartir grabaciones o mensajes de voz en redes sociales u otras plataformas públicas donde puedan ser accesibles para los ciberdelincuentes.
Publicación de la Condusef: https://www.facebook.com/share/p/1RzyEJF89s/?mibextid=wwXIfr
Agregar Comentario