Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
La inteligencia artificial está ganando terreno en un número creciente de ámbitos. Cada vez más, en América Latina y el Caribe (ALC), se emplea la inteligencia artificial (IA) en la toma de decisiones diarias que impactan a millones de personas: procesos de selección de becas, otorgamiento de subsidios, emisión de alertas de servicios sociales, identificación biométrica e incluso el soporte a víctimas de violencia.
Sin embargo, como advierte el Informe Regional sobre Desarrollo Humano 2025, la IA se afianza en una región con persistentes disparidades, y los datos que nutren estos sistemas inevitablemente reflejan los prejuicios arraigados en la sociedad. Si los algoritmos aprenden de estas realidades, el sesgo de género deja de ser un error de laboratorio para convertirse en un problema de desarrollo: puede dejar fuera a quienes menos aparecen en los registros – tales como mujeres de bajos ingresos, indígenas, migrantes o rurales – lo que mermaría aún más la fe en las instituciones.
No obstante, la misma tecnología que puede acentuar las desigualdades también puede proteger, informar y generar oportunidades, especialmente para grupos tradicionalmente marginados. El desafío está en reducir estos sesgos y comprometerse con controles verificables que pongan la equidad en primer plano para expandir derechos, hacer más efectivas las políticas públicas y fomentar un crecimiento más inclusivo.
**Un asunto “técnico” que ya es de desarrollo**
Uno de los usos principales de la inteligencia artificial se centra en la identificación de patrones en vastos volúmenes de datos para optimizar la toma de decisiones. No obstante, los modelos que “promedian” poblaciones diversas tienen el potencial de perjudicar a los grupos subrepresentados y reproducir esquemas históricos de discriminación.
En programas de protección social, por poner un ejemplo, varios países de ALC han adoptado sistemas automatizados para clasificar a las personas y asignar beneficios, pero los modelos de puntuación pueden perpetuar la exclusión si se basan en información donde las mujeres u otros grupos no están representados de manera equitativa.
El sesgo de género se manifiesta en decisiones tangibles, y la seguridad pública ofrece un caso igualmente revelador. La región ha adoptado rápidamente tecnologías biométricas y de reconocimiento facial, pero diversos estudios señalan que los falsos positivos afectan más a las mujeres, y en particular a las mujeres racializadas. Estos errores de identificación ponen en riesgo libertades, pueden desencadenar detenciones indebidas y aumentar las disparidades existentes.
Paralelamente, cuando los algoritmos de contratación replican históricos laborales predominantemente masculinos o cuando se otorga crédito mediante modelos que penalizan las trayectorias femeninas según los estándares de la banca tradicional, se limitan las posibilidades para las mujeres, se pierde productividad y se restringe el emprendimiento. La región no puede darse el lujo de tener tecnologías que marginen el talento femenino en mercados que ya están segmentados.
Invertir en datos verdaderamente representativos y robustecer los marcos regulatorios sobre el uso de la IA, integrando mediciones de equidad y mecanismos de rendición de cuentas, son pasos fundamentales para un uso responsable e inclusivo de esta tecnología. De esta forma, la inteligencia artificial puede ser una oportunidad no solo para aumentar la eficiencia en la toma de decisiones, sino también para ampliar la base de beneficiarios de la innovación, acelerar la adopción digital y fomentar la inclusión laboral y financiera.
También es pertinente examinar el aspecto simbólico: la feminización por defecto de asistentes virtuales o *chatbots* – a través de sus nombres, voces y avatares – perpetúa jerarquías. Si bien esto podría estar justificado en servicios muy específicos, como regla general refuerza estereotipos sobre el papel de las mujeres en la sociedad. El diseño de interfaces, cada vez más relevante para mejorar la prestación de servicios públicos, es también un componente de la política pública.
**Liderazgo femenino: de “valores atípicos” a diseñadoras**
Los principios de no discriminación, transparencia y revisión humana ya están presentes en las estrategias y marcos normativos de varios países de la región. El verdadero desafío es convertirlos en controles verificables: documentar la composición demográfica de los datos; evaluar el rendimiento por subgrupos (mujeres por edad, origen, estatus migratorio o ubicación rural); monitorear los resultados una vez implementados los sistemas; y hacer obligatorias las auditorías independientes en sistemas de alto impacto (como los utilizados para protección social, salud, justicia y seguridad). Con estos mecanismos, la IA se vuelve auditable y gobernable.
Debido a históricas exclusiones y su baja representación en datos formales, los sistemas tienden a catalogar a las mujeres como “*outliers*”, un concepto estadístico que define un valor anómalo, es decir, una observación que se encuentra numéricamente distante del resto de los datos. Desde una perspectiva puramente estadística, los resultados de conjuntos de datos con valores atípicos pueden llevar a conclusiones erróneas, por lo cual suelen ser evitados. Sin embargo, esto no siempre aplica en contextos más complejos, como solicitudes de crédito, postulaciones a empleos o programas sociales, donde las particularidades de las mujeres pueden ser distintas a las de los hombres, pero no deberían ser motivo para su exclusión de los procesos de selección.
Pero las mujeres de la región no son solo usuarias de la IA, sino también líderes en la creación de soluciones: marcos feministas para el desarrollo de IA, herramientas de código abierto para identificar estereotipos en modelos de lenguaje e iniciativas que integran una perspectiva de género en el trabajo de plataformas. Poner a las mujeres en el centro – como diseñadoras, auditoras, reguladoras y usuarias – no solo eleva la calidad técnica de los sistemas, sino que también acelera su aceptación social. Esto es, además, una política de innovación esencial.
En resumidas cuentas, reducir el sesgo de género multiplica los beneficios: políticas sociales más precisas y legítimas; seguridad compatible con el respeto a los derechos; mercados laborales y financieros más inclusivos y productivos; y una mayor confianza en instituciones capaces de gestionar tecnologías complejas. Todo esto se traduce en desarrollo humano: más capacidades reales – salud, educación, participación, trabajo decente – y más autonomía para influir en la propia vida y en el entorno.
La IA no es neutral, pero tiene el potencial de ser justa. Para lograrlo, América Latina y el Caribe debe adoptar un estándar mínimo que ya está a su alcance: datos representativos y documentados, métricas de equidad desagregadas por subgrupos, auditorías independientes y vías de reparación cuando se produzca un daño. Disminuir el sesgo de género no solo brinda oportunidades a las mujeres, sino que impulsa el desarrollo de toda la región.
Este texto se basa en los hallazgos del Informe Regional sobre Desarrollo Humano 2025, titulado “Bajo presión: Recalibrando el futuro del desarrollo”, elaborado por el Programa de las Naciones Unidas para el Desarrollo (PNUD) en América Latina y el Caribe.
**Gemma Galdon-Clavell**
Fundadora y CEO de Eticas Consulting, una organización dedicada a identificar, medir y corregir vulnerabilidades, sesgos e ineficiencias en herramientas predictivas y modelos de lenguaje (LLM).
**Ana Pirela-Rios**
Analista de Investigación Económica del Programa de las Naciones Unidas para el Desarrollo (PNUD) para América Latina y el Caribe.
Agregar Comentario