Primera Plana Tecnologia

las pautas no visibles que excluyen a Hispanoamérica del porvenir digital

8957395378.png
Imaginemos mandar una hoja de vida para un puesto en una compañía de comercio electrónico.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

Imaginemos mandar una hoja de vida para un puesto en una compañía de comercio electrónico. Dos jornadas después, una contestación automática: “Agradecemos su postulación. Su perfil no ha sido elegido”. Sin explicación, sin interlocutor humano, solo un correo. Tras esto, un sistema de inteligencia artificial califica estudios, perfiles en redes, el historial laboral… pero rechaza la candidatura sin que sepamos el motivo.

Ahora, pensemos en una gran avenida donde se activan cámaras con reconocimiento facial que cotejan información de miles de personas a diario. Una dama transita por dicha vía, y su imagen es confrontada con bases de datos diseñadas en otro continente. La regla que rige la verificación no fue debatida en un congreso local, sino que se amolda a parámetros técnicos internacionales, códigos elaborados por foros mundiales.

Esa es la faceta oculta de la IA, esquemas que dictaminan aspectos esenciales de nuestra existencia bajo preceptos que no escogimos ni entendemos.

Más allá de las propuestas normativas conocidas como el Reglamento europeo de IA (AI Act), las directrices, tanto técnicas como éticas, para sistemas de IA se están definiendo en entidades como la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC) a través de su conjunto ISO/IEC JTC 1/SC 42 (“Inteligencia Artificial”). Estas plataformas generan normas técnicas sobre dirección, riesgos, examen de cuentas de la IA y validación de sistemas. Por ejemplo, la norma ISO/IEC 42001:2023 acaba de ser adoptada en Colombia como la primera nación latinoamericana que habilita certificaciones para la gestión de sistemas de IA.

De forma paralela, gigantes plataformas tecnológicas y agrupaciones industriales como el Institute of Electrical and Electronics Engineers (IEEE) establecen especificaciones técnicas que devienen en reglas operativas mundiales aunque no tengan peso legal. Muchas de estas directrices, aparentemente técnicas, terminan por fijar los requisitos, no solo técnicos de sistemas de IA, sino también sus orientaciones éticas.

A diferencia de Europa, que organiza su gobernanza técnica mediante los organismos regionales CEN y CENELEC (por ejemplo, a través del comité conjunto JTC 21 que trabaja en estándares de desarrollo de las exigencias contenidas en el AI Act), o de Asia, que ha impulsado foros regionales en el marco de la ASEAN y la APEC para alinear enfoques sobre IA en la zona, Latinoamérica aún carece de un espacio regional estable para dialogar y proponer lineamientos técnicos comunes.

Las naciones avanzan de forma desarticulada, con iniciativas nacionales que replican esquemas foráneos sin una estructura regional de articulación. Por ejemplo, un estudio de cuatro países latinoamericanos (Brasil, Colombia, Chile y Uruguay) concluye que el rol central de la ciudadanía en la concepción de esas estrategias se limitó al nivel de “consulta”, sin auténticas decisiones compartidas. Por otro lado, si bien países como Brasil participan en los foros técnicos, la incidencia real y la perspectiva del contexto latinoamericano continúan siendo limitadas.

Este vacío no es solo simbólico. Implica que América Latina importa preceptos, procedimientos y modelos de valoración que fueron pensados para realidades muy diferentes. Cuando esos parámetros se aplican en la región, pueden generar consecuencias negativas: distorsiones, marginación, resoluciones que no captan la variedad social, idiomática y cultural de Latinoamérica.

En este sentido, una revisión reciente concluye que la colaboración regional es “fundamental” para la seguridad y la gestión de la IA, precisamente porque hoy no existe aún una voz colectiva capaz de influir en los foros donde se redactan las reglas del futuro digital. Esta carencia institucional explica que la región dependa de estándares externos (predominantemente europeos, estadounidenses o chinos) para determinar qué se considera una IA “segura” o “responsable”.

Por ejemplo, un examen de 38 implementaciones de reconocimiento facial público en nueve naciones latinoamericanas mostró que en la mayoría de los casos no hubo consulta ni análisis del impacto en los derechos humanos. En Buenos Aires y São Paulo, por ejemplo, se introdujeron sistemas de monitoreo biométrico sin marcos legales adecuados; en la metrópoli argentina se registraron millones de cotejos entre 2019 y 2022 sin participación ciudadana significativa.

Esto da pie a una suerte de servidumbre normativa. Es decir, al adquirir la tecnología, también se asume el marco que la acompaña y a menudo ese marco refleja valores, prioridades o peligros de entornos distintos al latinoamericano. Esa falta de voz impacta no solo en los derechos, sino también en la economía. Una empresa latinoamericana que desarrolla soluciones de IA debe ajustarse a directrices concebidas afuera para poder operar en mercados mundiales. Esto incrementa las vallas para la creatividad local y consolida la posición de la región como compradora de tecnología, no como co-creadora.

El dilema, entonces, se agrava. Los esquemas regulatorios que se adoptan importados suelen obviar la informalidad laboral, la presencia de etnias originarias y afrodescendientes, la disparidad de infraestructura, la brecha digital entre campo y ciudad, lo que genera una nueva disparidad tecnológica y de datos.

Los datos corroboran esta carencia. Según el mapeo regulatorio de Access Now, la mayoría de los marcos sobre IA en América Latina replican diseños externos sin adecuar los criterios técnicos ni las protecciones a los contextos locales. Incluso los proyectos más avanzados, como las estrategias nacionales de Brasil o Chile, se sustentan en pautas de la OCDE o la Unión Europea. Mientras tanto, iniciativas como el Índice Latinoamericano de Inteligencia Artificial (ILIA) se enfocan en medir el nivel de adopción tecnológica más que en crear estándares propios.

La pluralidad política, económica y cultural de América Latina dificulta la consolidación de un estándar compartido, lo que probablemente ha desestimulado el impulso hacia un cuerpo técnico unificado a nivel regional. Sin embargo, América Latina posee una oportunidad. La región, por su riqueza biológica, bagaje cultural, recursos energéticos limpios y variedad demográfica, podría forjar un modelo propio para la IA, no solo de asimilación.

Para lograrlo, es necesario avanzar en tres vertientes: primero, una mayor implicación en los foros internacionales de estándares, para que la perspectiva, entorno y valores latinoamericanos estén representados. Segundo, fomentar lineamientos regionales o adecuaciones de los globales: ¿por qué no crear un distintivo latinoamericano de “IA de confianza” que contemple las realidades de la zona? Y tercero, instruir y activar a la ciudadanía: cuando la IA tiene una trascendencia tan grande, la sociedad debe cuestionar, opinar, diseñar y fiscalizar.

En este sentido, América Latina también podría aportar algo que hoy falta en la discusión global: un enfoque ético fundamentado en la inclusión, la equidad social y la sustentabilidad. Su legado de pensamiento crítico y de movilizaciones comunitarias puede inspirar una inteligencia artificial más humana, menos explotadora y más solidaria.

Por lo tanto, la democracia en la época digital no se limita al sufragio cada cuatro años. Consiste también en cuestionar quién programa, quién avala y quién deja fuera.

TRA Digital

GRATIS
VER