Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
ESET alerta sobre la reciente función de imágenes animadas que se ha propagado en redes sociales, con miles de usuarios compartiendo sus imágenes generadas al estilo Studio Ghibli.
La última actualización del chatbot ChatGPT ha permitido a sus usuarios recrear el estilo artístico del creador del estudio de animación y reconocido cineasta japonés Hayao Miyazaki.
Esta nueva función se ha viralizado en redes sociales, con miles de usuarios compartiendo sus imágenes generadas al estilo Studio Ghibli.
Pero, ¿qué tan seguro es esto? Sumarse a una tendencia puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida, o simplemente si para usarla se aceptan condiciones de privacidad desfavorables, señala ESET, empresa en detección de amenazas.
Según un análisis de esta entidad, la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son los desafíos que impone esta tendencia, por lo que exige atención inmediata de gobiernos, empresas y usuarios debido a la información que queda registrada en la aplicación.
“El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven); muchos de estos contienen información personal, sensible y confidencial”, explicó David González, investigador de seguridad informática.
Dada la gran cantidad de datos que se procesan, se enfatiza la importancia de que los mismos sean tratados y almacenados de forma segura, ya que, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información, destaca la empresa de seguridad.
Esto puede llevar a que los ciberdelincuentes puedan suplantar la identidad de los vulnerables o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.
Unirse a esta tendencia, además del entusiasmo, puede acarrear riesgos para la privacidad si no se toman las precauciones debidas.
ESET Latinoamérica ofrece algunas recomendaciones:
1. Revisar las políticas de privacidad del sitio o aplicación: Estar informado sobre cómo funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable subir o no información personal o confidencial.
2. Verificar si la información que se sube a un sitio o aplicación está protegida por alguna ley: Asegurar que los modelos de IA dentro de aplicaciones cumplan con regulaciones internacionales y nacionales relevantes, así como con los principios éticos de transparencia. En caso de la ausencia de alguno de estos principios, es preferible no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de trabajo).
3.Utilizar aplicaciones web o móviles de fuentes oficiales: Debido al gran uso de aplicaciones o sitios similares a ChatGPT que puedan generar imágenes con el estilo artístico de Studio Ghibli, los ciberdelincuentes aprovechan esta temática para engañar a los usuarios e incitarlos a descargar software que aparentemente cumple con el propósito de generar imágenes con IA; sin embargo, puede contener malware (software malicioso).
4.Usar imágenes seguras o sin derechos de autor: Si no se tiene la certeza de que la imagen sea de uso libre, es mejor no subirla para evitar problemas legales relacionados con los derechos de autor.
Agregar Comentario