SEVILLA, 21 de abril. (Prensa Europea) – El Consejo Audiovisual de Andalucía (CAA) ha publicado un informe sobre “Aplicaciones web de desnudos con IA innovadora”, que confirma que las herramientas que facilitan la creación de imágenes humanas desnudas vulneran el derecho a la máxima protección para justificar las acciones de diversos sujetos. derecho a bloquear el acceso a estos sitios y exigir responsabilidades.
El estudio, consultado por Europa Press, se llevó a cabo entre el 12 y el 26 de febrero de 2024 e incluyó una búsqueda activa, mediante el motor de Google, de aplicaciones web dedicadas a la desnudez profunda, es decir, a la creación de imágenes virtuales de un cuerpo desnudo a partir de una imagen de un hombre vestido. persona -en esta búsqueda siempre una mujer-, conservando el rostro que aparece en la fotografía facilitada por el usuario. Algunas de estas aplicaciones también permiten la creación de ‘deepfakes’, es decir, la mezcla virtual de dos imágenes proporcionadas por el usuario, normalmente un rostro y otro cuerpo al que hay que añadir el rostro.
El objetivo de CAA con este informe es analizar los riesgos asociados al uso de la IA en el sector audiovisual, teniendo en cuenta datos sobre el aumento del consumo de medios de carácter sexual por parte de menores y sobre la existencia de aplicaciones que crean audio engañoso. -Contenidos visuales y pornografía hiperrealista que circulan por Internet y a los que acceden libremente. El pasado mes de septiembre, en la localidad extremeña de Almendralejo, más de 20 niñas y adolescentes de entre 11 y 17 años dijeron haber sido víctimas de una aplicación que creaba fotografías de desnudos mediante inteligencia artificial.
Las imágenes fueron creadas a partir de fotografías de ellos completamente vestidos y publicadas en sus redes sociales, utilizando una aplicación llamada ‘Clothoff’, que crea una imagen virtual de cómo se ve la persona cuando está desnuda. Una vez obtenidas estas imágenes de menores desnudos, son ampliamente difundidas a través de redes sociales como WhatsApp y Telegram. La facilidad de acceso a los sitios web, sumada al efecto multiplicador de las redes sociales, ha creado alarma social y ha puesto de relieve la necesidad de que las autoridades públicas actúen desde todos los sectores.
El análisis de aplicaciones, sitios web o programas que generan desnudos profundos advierte que su uso específico es principalmente ilegal, ya que en la mayoría de los casos las imágenes se utilizan sin el permiso o consentimiento de la persona desnuda, con las consecuencias legales que esto pueda tener. . Ninguno de los sitios web analizados en este estudio se encuentra alojado ni registrado en territorio español.
Toronto y Reykjavik son las ciudades donde más se realizan búsquedas, pero también hay otras ciudades como Kuala Lumpur, Nassau, Arizona o Walnut. Cabe destacar que todas las aplicaciones web analizadas fueron escritas en inglés, aunque la mitad de ellas, una vez detectada la ubicación del usuario, fueron traducidas automáticamente al español. El informe concluyó que ninguno de los sitios web analizados disponía de un sistema fiable para verificar la edad de la mayoría de los usuarios.
De hecho, en 13 de los 18 sitios analizados ni siquiera había una advertencia de edad. Los cinco restantes muestran un aviso y el usuario debe, con un simple clic del ratón, declarar que es mayor de edad. Por otro lado, se han descubierto algunas aplicaciones que se pueden utilizar de forma directa y gratuita sin identificación.
En otros casos, para utilizar la aplicación es necesario registrarse o registrarse proporcionando un correo electrónico. En ambos casos, el número de imágenes que se pueden generar de forma gratuita es limitado, y en algunos casos ni siquiera genera desnudos de forma gratuita (como es el caso de undress.love o deepnude.cc), lo que crea en el -imágenes puntuales con ropa interior o usando o quitándose un bikini. centrarse.
En otro caso, se identificaron aplicaciones cuyos servicios utilizaban IA para crear imágenes pornográficas desde cero en diferentes estilos. Estas imágenes se generan indicando una serie de parámetros predefinidos o proporcionando una descripción en lenguaje natural. En otros sitios, esta misma tecnología se utiliza para aplicar servicios de sexting generados por IA.
Además de lo anterior, el informe también confirma que todas las apps analizadas fueron diseñadas y publicitadas para producir desnudos virtuales casi exclusivamente para mujeres, violando el derecho fundamental a la igualdad de género.