Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Por: Gemma Galdon Clavell y Ana Pirela-Rios/ Latinoamérica21
Sin embargo, como lo subraya el Informe Regional sobre Desarrollo Humano 2025, la IA se afianza en un contexto regional marcado por desigualdades persistentes. Los datos que nutren estos sistemas inevitablemente reflejan los prejuicios profundamente arraigados en la sociedad.
Si los algoritmos toman como base estas realidades, el sesgo de género trasciende el ámbito técnico y se convierte en un problema de desarrollo. Puede llevar a la exclusión de quienes tienen menor presencia en los registros (como las mujeres pobres, indígenas, migrantes o rurales), minando aún más la confianza en las instituciones.
No obstante, la misma tecnología que tiene el potencial de acentuar las desigualdades también puede servir para proteger, informar y generar oportunidades, especialmente para aquellos grupos tradicionalmente marginados. El desafío central es atenuar ese sesgo y promover controles rigurosos y verificables que den prioridad a la equidad, con el fin de expandir derechos, precisar la orientación de las políticas y fomentar un crecimiento más inclusivo.
Un desafío que trasciende lo “técnico” para ser de desarrollo
Uno de los usos principales de la inteligencia artificial consiste en detectar patrones en grandes volúmenes de datos para optimizar procesos de toma de decisiones. No obstante, los modelos que buscan “promediar” poblaciones diversas pueden perjudicar a los grupos subrepresentados, replicando así patrones históricos de discriminación. En programas de protección social, por ejemplo, varios países de América Latina y el Caribe han implementado modelos automatizados para clasificar personas y asignar beneficios. Sin embargo, si estos sistemas se alimentan de datos donde las mujeres u otros colectivos no están representados de manera equitativa, el sistema de puntaje puede perpetuar la exclusión.
El sesgo de género se manifiesta en decisiones tangibles. La seguridad pública ofrece un ejemplo igualmente revelador. La región ha adoptado rápidamente tecnologías biométricas y de reconocimiento facial, pero diversos estudios demuestran que los “falsos positivos” afectan en mayor medida a las mujeres, y particularmente a las mujeres racializadas. Estos errores de identificación pueden coartar libertades, causar detenciones injustas y exacerbar las desigualdades.
De manera análoga, cuando los algoritmos de contratación replican históricos laborales predominantemente masculinos o cuando el acceso al crédito se basa en modelos que penalizan las trayectorias financieras femeninas según criterios de la banca tradicional, las oportunidades para las mujeres disminuyen. Esto conlleva una pérdida de productividad y limita el emprendimiento. La región no puede permitirse el lujo de usar tecnologías que excluyan el talento femenino de mercados que ya se encuentran segmentados.
Invertir en datos verdaderamente representativos y consolidar marcos regulatorios para el uso de la IA, integrando métricas de equidad y mecanismos de rendición de cuentas, son pasos cruciales para asegurar una aplicación de esta tecnología que sea responsable e inclusiva. Así, la inteligencia artificial puede llegar a ser una vía para optimizar la eficiencia en la toma de decisiones, pero también para ampliar el espectro de beneficiarios de la innovación, impulsar la adopción digital y promover una mayor inclusión laboral y financiera.
Además, es oportuno examinar la dimensión simbólica: la asignación por defecto de roles femeninos a asistentes virtuales o chatbots (a través de sus nombres, voces y avatares) tiende a perpetuar jerarquías. Si bien puede estar justificado en servicios específicos, como regla general refuerza estereotipos sobre la función de las mujeres en la sociedad. El diseño de interfaces, cada vez más utilizado para optimizar la prestación de servicios públicos, constituye también un elemento de política pública.
Liderazgo femenino: de ser consideradas “valores atípicos” a convertirse en diseñadoras
Los principios de no discriminación, transparencia y supervisión humana ya forman parte de las estrategias y marcos normativos de diversos países de la región. El reto consiste en materializarlos en controles mensurables: documentar fehacientemente la composición demográfica de los datos utilizados; medir el rendimiento de los sistemas por subgrupos (mujeres según edad, origen, condición migratoria o ruralidad); hacer un seguimiento de los resultados después de la implementación de los sistemas; y exigir auditorías independientes de carácter obligatorio en aquellos sistemas de alto impacto (como los utilizados en protección social, sanidad, justicia y seguridad).
Con la adopción de estos controles, la IA se vuelve auditable y, por ende, gobernable.
Debido a exclusiones históricas y a su escasa visibilidad en los datos formales, los sistemas suelen catalogar a las mujeres como *outliers* o “valores atípicos”. Este término estadístico identifica una observación numéricamente distante del resto de los datos. Desde un enfoque puramente estadístico, los resultados obtenidos de conjuntos de datos con valores atípicos pueden llevar a conclusiones erróneas, por lo que a menudo se opta por omitirlos. Sin embargo, esta lógica no es siempre aplicable en contextos más delicados, como solicitudes de crédito, opciones de empleo o programas sociales, donde las características de las mujeres pueden diferir de las de los hombres, pero no deberían ser causal de exclusión de los procesos de selección.
Pero las mujeres de la región no son solamente receptoras de la IA, sino también protagonistas en la creación de soluciones. Esto se evidencia en los marcos feministas para el desarrollo de la IA, las herramientas de código abierto para identificar estereotipos en modelos de lenguaje y las iniciativas que incorporan la óptica de género en el ámbito del trabajo en plataformas. Poner a las mujeres en un lugar central (como diseñadoras, auditoras, reguladoras y usuarias) no solo mejora la calidad técnica de los sistemas, sino que también acelera su aceptación social.
Esto representa, además, una política con una clara orientación hacia la innovación.
En resumen, reducir el sesgo de género genera múltiples beneficios: políticas sociales más legítimas y precisas; seguridad compatible con los derechos; mercados laborales y financieros más inclusivos y con mayor productividad; y un aumento en la confianza hacia instituciones capaces de manejar tecnologías complejas. Todo esto se traduce en desarrollo humano: más capacidades concretas (salud, educación, participación, trabajo digno) y una mayor capacidad de agencia para influir en la propia vida y en el entorno.
La IA no es indiferente, pero tiene la capacidad de ser justa. Para que esto se concrete, América Latina y el Caribe debe adoptar un estándar mínimo que ya está a su alcance: datos que sean representativos y estén bien documentados, métricas de equidad desglosadas por subgrupos, auditorías independientes y mecanismos claros de reparación en caso de perjuicio. Atenuar el sesgo de género no solo genera oportunidades para las mujeres, sino que es un motor de desarrollo para toda la región.
Este artículo se basa en las conclusiones del Informe Regional sobre Desarrollo Humano 2025, titulado “Bajo presión: Recalibrando el futuro del desarrollo”, elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) en América Latina y el Caribe.















Agregar Comentario