Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
En Albania ya se jactan de su vanguardia tecnológica: cuentan con una nueva ministra… pero de papel. Diella, un avatar de Inteligencia Artificial con rostro femenino y vestimenta tradicional, es la encargada de vigilar las contrataciones públicas. No manda, no decide, no opina: solo ejecuta. La mujer perfecta para el patriarcado, ahora convertida en un servicio en la nube.
El Gobierno albanés lo promociona como un salto al futuro; en realidad, es una re-edición del pasado. Lo verdaderamente innovador no es que la política se digitalice, sino que los viejos sesgos se incrusten en el software. Igualdad de fachada, poder de siempre.
Del balcón al back‑office: la igualdad como interfaz
No es casual que el primer “alto cargo” virtual del continente europeo tenga voz y cara de mujer. En la economía digital llevamos años entrenando el oído: Siri, Alexa, Cortana… asistentes con timbre femenino, diseñadas para obedecer, modular y acompañar. La guinda política de ese modelo es una ministra‑avatar que “facilita” procesos pero no marca prioridades; que organiza el tráfico administrativo, pero no decide a dónde se dirige la ciudad. La mujer como interfaz, no como poder.
Quienes celebran a Diella como gesto igualitario olvidan un detalle básico: en política, la igualdad no es aparecer en la foto; es estar en la sala donde se corta el bacalao. La foto es front‑end. El poder es back‑end. Y el truco de magia queda servido cuando el front se hiper‑feminiza mientras el back se refuerza. Una ministra que nunca contradice la legitimidad no transforma; “tranquiliza” la conciencia institucional mientras deja intacta la distribución material del poder.
La historia reciente está repleta de feminización de lo visible: más mujeres en portadas, en campañas, en actos; menos en presupuestos, en carteras con garra, en mesas donde se negocian marcos regulatorios. La IA puede perfeccionar esa coreografía. Con un avatar se multiplican las apariciones, se pulen los mensajes, se “atienden” más consultas. ¿Quién se va a quejar si la ministra responde a todo en milisegundos? Exacto: nadie… porque esta ministra no decide nada.
Aquí aparece la trampa de la supuesta neutralidad tecnológica. Si algo falla, “lo dijo el algoritmo”. Si entra un contrato opaco, “falló el sistema”. La responsabilidad se traslada a una máquina sin consecuencias jurídicas mientras la cadena de mando humana queda difuminada y controlada por los de siempre. Es la doctrina del piloto automático: se promete transparencia total, pero el código es caja negra; se vende objetividad, pero mandan datos históricos y sesgados.
La perspectiva de género hace visible lo que a menudo se oculta tras el lenguaje técnico: ¿quién define la métrica del éxito?, ¿quién valida los sets de datos?, ¿quién audita los sesgos?, ¿quién puede apagar el sistema?. Si esas cuatro preguntas siempre se responden con nombres masculinos, poner cara de mujer a la interfaz no es progreso: es branding.
Para aterrizarlo: en cualquier ministerio existen tareas de fondo que nadie ve —definir criterios de evaluación, decidir qué se mide y qué no, fijar umbrales que abren o cierran grifos—. Si esas teclas las pulsan siempre los de siempre, la cara femenina del asistente es un barniz, no un contrapeso. Y la ciudadanía, que solo percibe la superficie amigable, confunde servicio con gobierno.
Del protocolo al código
La tentación de reemplazar instituciones por software es tan antigua como la primera hoja de cálculo que prometía “objetividad”. Hoy, esa tentación llega con alas de Red Bull: con muuuuuuchas alas pero sin rumbo. IA generativa, automatización de procesos, licitaciones data‑driven y chatbots que “acercan” la administración… y, de pronto, una ministra sintética. Si no establecemos límites, el salto no será técnico, será político: las decisiones migran a capas opacas, comités de compra y proveedores privados que guardan modelos y datos como secreto industrial.
El resultado es un poder desplazado: el Parlamento debate, el avatar saluda y el contrato de software condiciona qué se prioriza, a quién se inspecciona o qué expediente llega a la mesa del cargo público. ¿Exageración? Pensemos en lo cotidiano: sistemas de puntuación de riesgo que deciden qué empresa se investiga, algoritmos que “optimizan” agendas públicas, IA que filtra y redacta documentos antes de que los lea nadie con responsabilidad política. La agencia humana se terceriza; la responsabilidad, también.
La salida no es apagar la tecnología, sino politizarla: registros públicos de los algoritmos usados por la Administración (con proveedor, objetivo, métricas y bases de datos); evaluaciones de impacto con perspectiva de género y clase antes del despliegue; auditorías independientes y sancionables; trazabilidad de cada decisión automatizada; y un interruptor de emergencia bajo control democrático para detener cualquier sistema que opaque la rendición de cuentas. Paridad, además, donde duele: en las mesas que definen compras tecnológicas, estándares y presupuestos. Sin eso, la igualdad seguirá en la interfaz y el poder, fuera de foco.
Y en ese desplazamiento, las mujeres corren un doble riesgo. Uno, el evidente: queden relegadas a la capa relacional y comunicativa (“explica tú el proyecto, que conectas mejor con la ciudadanía”), mientras las palancas financieras y regulatorias se negocian entre ingenieros, consultoras y gabinetes donde la paridad es una promesa siempre aplazada. Dos, el silencioso: métricas de rendimiento diseñadas sin perspectiva de cuidados, conciliación o violencia digital penalizan sistemáticamente trayectorias femeninas y se declaran “neutras”.
Transparencia, control y rendición de cuentas
La salida a este despropósito en que nos encontramos no es apagar la IA ni romantizar la burocracia de ventanilla. La salida es politizar la tecnología con normas claras y con dientes. No basta con “principios éticos” en un PDF; hacen falta mecanismos vinculantes en tres capas:
En primer lugar, gobernanza: registros públicos de algoritmos y asistentes usados por la Administración; publicación de proveedores, objetivos, métricas y bases de datos; obligación de realizar impact assessments con perspectiva de género y de clase antes del despliegue.
Pero no hay avances sin rendición de cuentas: auditorías independientes, con capacidad sancionadora, sobre sesgos y desempeño real; trazabilidad de decisiones automatizadas (quién aprobó qué y por qué); derecho efectivo a explicación y recurso humano en cualquier trámite crítico.
Y, por supuesto, poder sustantivo: cuotas y paridad no en la interfaz, sino en los órganos que deciden compras tecnológicas, estándares y presupuestos; cláusulas de contratación pública que exijan equipos diversos, datos auditables y un kill‑switch bajo control público.
Lo demás es rendirse a una gobernanza subcontratada donde el Estado pone la cara (virtual) y la empresa pone las reglas (reales). Porque el progreso no es que la IA hable con voz femenina; es que las mujeres también decidan qué dice, para qué sirve y cuándo se apaga.
El futuro que nos espera puede ser inhóspito o habitable. Inhóspito si normalizamos hologramas con faldas mientras el poder permanece intacto tras la pantalla. Habitable si convertimos la IA en infraestructura pública con controles, contrapesos y mujeres con mando en plaza. La modernidad no es tener una ministra que responde en milisegundos; es tener una ministra que responde políticamente y rinde cuentas. En democracia, el poder no se delega a una máquina. Se ejerce con nombres y apellidos. Preferiblemente, de mujeres y de hombres, no de algoritmos.
Agregar Comentario