París, 7 mar (Prensa Latina) La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) lanzó hoy alerta contra sesgos y discriminaciones de género en modelos de inteligencia artificial (IA) y exige que sean corregidos. En particular, el organismo multilateral mencionó los Modelos de Lenguaje Grande (LLM) de código abierto, como Llama 2 y GPT-2, y reconoció que son apreciados por su carácter gratuito y fácil de usar. La organización basa sus valoraciones en el estudio Bias Against Women and Girls in Mainstream Language Patterns, que examina los patrones actuales e identifica claramente los sesgos generados en el contenido de estas plataformas.
Según la literatura, los nombres femeninos suelen asociarse con los términos hogar, familia e hijos, mientras que los nombres masculinos se asocian con palabras como empresa, director ejecutivo, salario y carrera. Cada día, más y más personas utilizan modelos lingüísticos en el trabajo, en el estudio y en casa. La Directora General de la UNESCO, Audrey Azoulay, dijo: “Estas nuevas aplicaciones de la IA tienen el potencial de moldear sutilmente las percepciones de millones de personas, de modo que incluso pequeños sesgos de género en su contenido también pueden amplificar significativamente las desigualdades del mundo real.
En este sentido, llamó a los gobiernos a desarrollar y aplicar marcos regulatorios claros, y llamó a las empresas privadas a evaluar continuamente estas cuestiones para detectar sesgos. Azoulay destacó la importancia de la Recomendación de la UNESCO sobre el uso ético de la IA, adoptada por los Estados miembros en noviembre de 2021. Esta organización multilateral cree que la naturaleza abierta y transparente de LLM Llama 2 y GPT-2 puede ser una gran ventaja para abordar y reducir los sesgos, a través de una colaboración más estrecha entre la comunidad de investigación global.
En cambio, modelos más cerrados, como GPT-3.5 y 4 (basados en ChatGPT) y Gemini de Google, plantean mayores desafíos en este sentido, añadió. El estudio pone sobre la mesa los prejuicios de género y las manifestaciones de homofobia y prejuicio racial que implican medir la diversidad del contenido en los textos generados por IA, centrándose en personas que representan una variedad de géneros, sexualidades y orígenes culturales en otros aspectos. Para ello, se requiere que las plataformas escriban historias sobre cada individuo.