Tecnologia

Desde la disparidad de género hasta el prejuicio algorítmico: aspectos fundamentales para una inteligencia artificial equitativa

8930806090.png
La inteligencia artificial (IA) es una herramienta que está transformando la sociedad, la economía y la cultura al instante.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

La inteligencia artificial (IA) es una herramienta que está transformando la sociedad, la economía y la cultura al instante. En Latinoamérica, su implementación avanza con celeridad, pero sobre bases desiguales: existen grandes disparidades en el acceso, poca educación digital y normativas en suspenso. Dado el contexto de diversas inequidades preexistentes, la cuestión crucial no es si la comarca está lista para esta tecnología, sino quiénes quedarán excluidos y quiénes asumirán los mayores costos.

Las mujeres, sobre todo las más empobrecidas, racializadas y las que residen en zonas rurales, corren el riesgo de ser las grandes damnificadas de esta revolución si no se integran ópticas feministas en la concepción de las estrategias gubernamentales y tecnológicas. Ante esto, surge el interrogante: ¿Qué clase de IA anhelamos para nosotras?

Esto no implica que la IA carezca de oportunidades genuinas. Existen visiones perceptivas, aunque también optimistas, que sostienen que la inteligencia artificial abre caminos laborales inéditos para las mujeres. Por ejemplo, utilidades como ChatGPT o Gemini permiten incursionar en proyectos tecnológicos sin requerir largos periodos de formación en programación.

Y esto podría significar una vía para democratizar la entrada de mujeres a campos técnicos. En un territorio donde solo el 28% de los puestos tecnológicos son ocupados por mujeres, según datos del Banco Interamericano de Desarrollo (BID), la IA podría servir de portal hacia la independencia económica y empleos mejor remunerados, especialmente para aquellas en situaciones de empleo inestable.

Lea más: ¿Qué peligros conlleva la IA para la seguridad de los jóvenes en línea?

Pero dichas posibilidades no benefician a todas por igual. Según la Comisión Económica para América Latina y el Caribe (CEPAL), el 32% de las mujeres en la región carece de conexión a internet constante, cifra que escala al 42% entre las mujeres rurales. En muchos hogares del continente, el teléfono móvil es un recurso compartido, no individual; y si hay que decidir quién lo utiliza, el resultado es usualmente predecible. Sabemos que en entornos campestres las mujeres frecuentemente no poseen un móvil propio. Entonces, como ha señalado una especialista en derechos digitales, discutir sobre inteligencia artificial en estas condiciones, sin abordar la disparidad digital, es simular que todos partimos desde la misma línea de salida.

A esta carencia material se suma otra menos evidente pero igualmente seria: la brecha de representación en la creación tecnológica. Como se ha argumentado, dado que la IA aprende del entorno a través de datos, y estos datos están cargados de prejuicios machistas, racistas o clasistas, la IA hereda y magnifica las exclusiones.

Esto no es mera especulación: ya en 2018 se documentó que el sistema de selección de personal automatizado de Amazon desechaba automáticamente hojas de vida de mujeres al haber sido entrenado con información de empleados masculinos. También existen casos inquietantes sobre el acceso a financiación mediante modelos algorítmicos inciertos que penalizan trayectorias laborales intermitentes, algo habitual en mujeres debido a sus responsabilidades de cuidado. Lo que podría interpretarse como falta de compromiso es, en realidad, un reflejo de la desigualdad estructural. Por supuesto, estos incidentes demuestran que el problema se origina en el historial de desigualdades presentes en los datos que alimentaron al algoritmo.

Pero quizá el ámbito donde la IA ha emergido de forma más perjudicial para las mujeres es el de la violencia en línea. Actualmente, los llamados *deep fakes* son un nuevo instrumento para perpetrar ataques de género: vídeos falsos que sexualizan rostros femeninos sin consentimiento, grabaciones de voz fraudulentas, campañas de desprestigio digital.

Se calcula que el 90% de los *deep fakes* en internet contienen material sexual no consentido, y que el 95% de ellos afectan a mujeres. Esta amenaza atañe a periodistas, educadoras, activistas y adolescentes que han sido víctimas de chantaje y acoso mediante imágenes manipuladas. La IA, sin supervisión ni rendición de cuentas, puede convertirse en un amplificador tecnológico de las agresiones que buscamos erradicar.

No obstante, si bien las mujeres están poco representadas en el desarrollo tecnológico, también están gestando propuestas críticas. Un ejemplo es OlivIA, una utilidad de inteligencia artificial desarrollada en el entorno de ChatGPT, impulsada por la jurista y comunicadora feminista argentina Ana Correa.

OlivIA opera como una IA inquisidora: identifica prejuicios de género en textos, normativas, discursos o contenidos y sugiere interrogantes perspicaces. Nos encontramos con preguntas que la propuesta tecnológica nos invita a plantear: ¿No estás dejando a alguien fuera? ¿Verificaste si las manifestaciones de la enfermedad varían entre mujeres y hombres? ¿Quién narra este relato y quién está ausente?

Esta tecnología se inspira en preceptos de la teoría jurídica feminista, en particular la “pregunta por la mujer” de Katharine Bartlett, y fue instruida con marcos de derechos humanos y debates sobre equidad de género.

Lo valioso de OlivIA reside en su desafío al postulado de la neutralidad tecnológica, es decir, aquel que busca evitar sesgos. Puesto que, al partir de la vivencia de las acciones afirmativas, sabemos que es necesario dejar ver las disparidades existentes, más que ocultarlas.

Mientras tanto, los gobiernos no están reaccionando con la premura debida. Latinoamérica continúa a la zaga en cuanto a la reglamentación de la inteligencia artificial. La Unión Europea ha sancionado el AI Act para establecer límites éticos en el uso de la IA, pero en nuestra comarca todavía no hay un esquema unificado ni estrategias integrales de protección.

Y existen inquietudes respecto a la transparencia en el manejo de estas herramientas y cuánto tiempo confiaremos en la autorregulación empresarial. Entidades como las Naciones Unidas han llamado explícitamente a integrar una visión de género en la gestión de la IA para prevenir la propagación de la violencia digital y las injusticias.

Entonces, ¿qué tipo de inteligencia artificial deseamos para Latinoamérica? Es imperativo situar la IA en la conversación pública y dejar de ser receptoras pasivas. Si no lo debatimos nosotras, otros lo harán en nuestro lugar. Y si ese futuro se diseña sin nuestra participación, también decidirá sobre nosotras.

TRA Digital

GRATIS
VER