Primera Plana Tecnologia

8M: La inteligencia artificial amplifica las campañas de desinformación ofensiva hacia las mujeres

9124985193.png
Apple informó al medio CNBC haber eliminado 28 aplicaciones.

Fuente: Listin diario

Surge una nueva preocupación: las principales tiendas digitales han ofrecido apps capaces de desnudar a las personas.

El uso creciente de la inteligencia artificial (IA) para crear contenidos desinformadores que degradan y cosifican a la mujer en internet se evidencia en videos sintéticos donde mujeres aparecen como productos en vitrinas, o en herramientas como Grok, la IA de X, que genera imágenes falsas de desnudos.

A finales de 2025, Elon Musk presentó una función que permitía editar imágenes con Grok. Poco después, esta herramienta empezó a usarse para fabricar deepfakes sexuales de mujeres sin su consentimiento.

La gravedad del asunto quedó reflejada en un informe del Centro para la Lucha contra el Odio Digital (CCDH), que estimó que entre el 29 de diciembre del año pasado y el 8 de enero de 2026 se crearon cerca de tres millones de imágenes sexualizadas con Grok, incluyendo mujeres y niños.

Un caso reciente del uso de IA para crear contenido engañoso y sexualizador es un video artificial con más de un millón de reproducciones en X, donde supuestamente se muestran mujeres en Medellín dentro de urnas de cristal como si fuesen mercancía.

Videos similares circulan y se viralizan en redes sociales, acompañados por rótulos y banderas que hacen referencia a otras ciudades del mundo.

Karen Vergara Sánchez, directora de la ONG chilena Amaranta e investigadora en tecnología, sociedad y género, afirma que estos contenidos constituyen “una forma de violencia digital contra las mujeres” y contribuyen a “reforzar estereotipos de género”.

Generación masiva de desnudos con solo un clic

TRA Podcast Studios

“Si publico una foto en bikini es porque quiero y doy mi consentimiento. Pero si la IA me desnuda, no hay permiso y no es lo mismo (sic)”, expresó a principios de enero una usuaria en X al descubrir que una imagen suya fue manipulada con Grok para mostrarla semidesnuda.

El informe del CCDH titulado ‘Grok inunda X con imágenes sexuales de mujeres y niños’ señala que entre los millones de deepfakes creados por esta IA hay mujeres en bikini o cubiertas por fluidos.

Además, se menciona material que incluye figuras como la exvicepresidenta estadounidense Kamala Harris, la ministra sueca Ebba Busch o la cantante Taylor Swift.

Vergara explica: “La exposición pública de fotografías íntimas femeninas (creadas con IA o no) envía un mensaje no solo a esa mujer sino a todas las demás presentes en esa red social; un mensaje para disciplinar y silenciar voces, ya sean activistas, periodistas, artistas u otras personas visibles en internet”.

Tras la controversia generada por estas imágenes sexualizadas, países como Indonesia, Malasia y Filipinas bloquearon temporalmente el acceso a este chatbot, mientras la Comisión Europea y el regulador británico abrieron investigaciones a X.

El 15 de enero Grok anunció que restringiría a todos sus usuarios, incluidos los que pagan por el servicio, la posibilidad de editar fotografías, según reportó la Agencia EFE.

La IA convierte a las mujeres: de personas a objetos

“Mira esto: prostitución industrializada en Medellín, Colombia”, comenta un usuario en inglés en X al compartir el video mencionado al inicio donde aparecen al menos cinco mujeres con vestidos cortos saludando desde un mostrador.

No obstante, un análisis del material revela que algunas mujeres carecen de piernas o presentan deformidades corporales típicas de contenidos generados mediante IA.

Para Vergara, directora de Amaranta, estos videos diseñados para satisfacer arquetipos machistas combinan formas de violencia digital y simbólica porque “refuerzan estereotipos de género”.

Añadió que “este tipo de contenido asociado a exhibir mujeres vinculadas a la prostitución busca atraer clics para monetizar, especialmente en plataformas como X”.

Aplicaciones específicas para desnudar mujeres

En este contexto emergió otro problema: las tiendas digitales más importantes han puesto a disposición aplicaciones capaces de desnudar a las personas.

Un estudio realizado por el centro Proyecto de Transparencia Tecnológica (TTP) identificó 55 apps disponibles en Google Play y 47 en Apple Store con funciones para desvestir parcial o totalmente a mujeres.

Estas aplicaciones, detectadas mediante búsquedas con palabras clave como “desnudar” o “desvestir”, acumulan más de 705 millones de descargas globales y han generado ingresos por 117 millones de dólares, según AppMagic, firma especializada en análisis de apps.

La investigadora advierte: “Al igual que sucede con la pornografía, se pierde el impacto o asombro inicial; por eso las personas terminan explotando cada vez más estas herramientas y exponiendo incluso a gente cercana”.

El documento también señala que Google y Apple solicitaron a TTP la lista completa de apps identificadas. Apple informó al medio CNBC haber eliminado 28 aplicaciones.

Asimismo, CNBC reportó que Google suspendió varias apps mencionadas en dicho informe.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER