Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
El Organismo Neerlandés de Protección de Datos (AP) advierte que los asistentes conversacionales de inteligencia artificial, como ChatGPT o Gemini, podrían ofrecer sugerencias programáticas sesgadas y poco claras. La entidad alerta de que estas plataformas tienen la capacidad de influir en la decisión electoral.
Los usuarios de la red recurren cada vez más a los chatbots de IA para obtener guía sobre su vida diaria, desde auxilio con gestiones administrativas comunes hasta consejos sentimentales. Pero, ¿es apropiado usar la IA para orientar el sufragio y es confiable para la democracia?
El Organismo Neerlandés de Protección de Datos (AP) ha dictaminado que no, señalando que instrumentos de IA como ChatGPT y Gemini pueden ser inseguros y propensos a la parcialidad, previo a los comicios extraordinarios del 29 de octubre.
El AP divulgó hace poco un estudio donde sometió a cuatro chatbots —ChatGPT, Gemini, Grok y Le Chat— a 200 arquetipos de votantes basados en los partidos políticos activos actualmente en el Parlamento holandés, pidiéndoles que emitieran recomendaciones de voto con base en dichos perfiles.
La autoridad reguladora neerlandesa constató que los asistentes virtuales sistemáticamente sugerían uno de dos partidos situados en los extremos del espectro político, sin importar las indicaciones o cuestionamientos del usuario.
En el 56% de los casos, los chatbots dirigieron a los usuarios hacia las dos formaciones que, según las proyecciones, obtendrían la mayor cantidad de escaños en las elecciones holandesas: el Partido por la Libertad (PVV) de Geert Wilders o la coalición Verde (GL/PvdA) de Frans Timmermans.
“Observamos una especie de simplificación burda del panorama político de los Países Bajos, donde un partido de izquierda captó todos los sufragios de ese lado del espectro, y lo mismo sucedió con el partido de derecha”, comentó Joost van der Burgt, responsable de proyectos del AP.
De acuerdo con la agencia, los resultados indicaron que las posturas del centro político estaban insuficientemente representadas, mientras que formaciones minoritarias como el Movimiento Campesino-Ciudadano (BBB) y el Llamamiento Demócrata Cristiano (CDA) apenas fueron propuestas, incluso cuando los usuarios proporcionaban datos que coincidían exactamente con las opiniones de dichos partidos.
Un tercer grupo, el conservador JA21, fue recomendado un número llamativamente elevado de veces, a pesar de ser un partido reciente con menor cobertura mediática comparada.
“La mecánica de funcionamiento de la IA generativa y los grandes modelos lingüísticos implica que son esencialmente aparatos estadísticos que adivinan las palabras faltantes en una oración o un resultado específico”, explicó Van der Burgt al equipo de verificación de ‘Euronews’, The Cube.
“Si tus inclinaciones políticas te sitúan hacia una de las fronteras del espectro político, tal vez no sea tan sorprendente que la IA generativa se incline por un partido que concuerde con esa posición y parezca una opción segura”, señaló. “La IA también puede fallar al diferenciar entre formaciones que están bastante próximas o que comparten parecidos criterios en la mayoría de los temas, aunque no en todos”.
En agosto de 2024 entró en vigor la Ley Europea sobre Inteligencia Artificial (AI Act), que dicta los criterios para calificar un sistema de IA como de “alto riesgo”. Conforme a la regulación, los sistemas de IA que caen en esta categoría podrían representar un peligro para la salud o los derechos fundamentales de los ciudadanos de la UE. No obstante, siguen siendo permitidos porque sus ventajas socioeconómicas superan sus riesgos.
Según los investigadores, el hecho de que los chatbots ofrezcan asesoramiento electoral podría implicar que se clasifiquen como “sistemas de alto riesgo” bajo un nuevo conjunto de directrices que entrarán en vigor en agosto de 2026 según la Ley de IA de la UE.
Para Van der Burgt, la amenaza de que los asistentes conversacionales puedan moldear a los electores basándose en datos sesgados se agrava por la ausencia de regulación. “Esto ya sucede con consultas sobre salud mental o instrucciones para fabricar explosivos”, indicó. “En todos estos escenarios, un chatbot establece claramente: disculpe, no estamos autorizados a asistirlo con eso. Creemos que debería existir una medida similar cuando se trata de orientación electoral”.
El AP contrastó sus hallazgos con los de dos utilidades neerlandesas de guía electoral en línea: StemWijzer y Kieskompas, las cuales se basan en repertorios de datos y no en IA. Estas herramientas solicitan a los votantes responder a cerca de 30 interrogantes para determinar con qué formación política concuerdan más.
En Alemania, la utilidad Wahl-O-Mat, avalada por el Gobierno y muy utilizada —con raíces en StemWijzer—, compara las posturas de los votantes sobre diversas afirmaciones políticas con las de los partidos, con el objetivo final de vincular al usuario con el grupo que mejor refleje sus criterios.
Los expertos sugieren que estas plataformas tienen menor probabilidad de ofrecer resultados equilibrados que aquellas que emplean IA generativa. Un valor añadido de estas utilidades es que sus procesos son transparentes, al contrario que los asistentes conversacionales habituales.
“Un obstáculo principal de estos chatbots es que su funcionamiento no es diáfano”, afirma Van der Burgt. “Ni nosotros, ni el público, ni los periodistas podemos dilucidar exactamente el porqué de una respuesta determinada”. Las utilidades de votación, añadió, son “claras sobre su funcionamiento, cómo han sido configuradas y cómo llegan a sus conclusiones”.
Pero, ¿existe la esperanza de que los asistentes conversacionales puedan brindar a los electores sugerencias fiables y detalladas sobre qué facción política encaja mejor con las perspectivas del usuario? Un grupo de académicos sugiere que hay potencial, siempre que los chatbots estén supervisados.
Antes de las elecciones federales alemanas de febrero de 2025, Michel Schimpf lanzó el bot Wahl.Chat con un equipo de investigadores, como alternativa a Wahl-O-Mat. El bot integra diversas fuentes, incluyendo los programas de los partidos, permitiendo a los votantes formular preguntas como “¿cuál es la posición de esta facción frente al cambio climático?”.
“Si le planteas una duda a ChatGPT, su origen puede ser un portal propenso a un bando, pero nosotros garantizamos que nuestro bot se sustenta en los programas de los partidos, de forma que si no halla respuesta, le informará al usuario que el grupo no abordó ese punto”, comentó Schimpf en una entrevista. “Solicitamos a nuestros asistentes que reprodujeran lo que un partido declaró, no que lo presentaran como un hecho probado”.
El equipo de Wahl.Chat también incluyó en su bot un componente de verificación de datos, que permite a los usuarios contrastar una afirmación manifiesta revisando en la web.
“La información totalmente neutral no existe, dado que los medios de comunicación tienen sus sesgos, al igual que las redes sociales”, postula Schimpf. “Considero que nuestro chatbot era menos inclinada por la manera en que exponía los datos, diseñándolo con la intención de minimizar el sesgo; pero sigue siendo IA, que por definición es probabilística”.
“Y si realmente te esfuerzas, obtendrás información que puede direccionar la IA hacia una inclinación sesgada”, agregó. Otros aplican la IA de forma más restringida al desarrollar sus asistentes conversacionales.
Naomi Kamoen, profesora asociada de la Universidad de Tilburg, ha colaborado en el desarrollo de un chatbot bajo control que puede aclarar a sus usuarios conceptos y proposiciones complejas sobre las elecciones neerlandesas. Sus réplicas, acotadas, son redactadas por expertos cualificados en lugar de ser generadas automáticamente.
“Yo diría que las personas pueden sacar mayor provecho de sus instrumentos de guía electoral si también cuentan con una herramienta que les ayude a profundizar en los temas”, explica a The Cube. “El propósito de ambos es informar, no necesariamente dictarles a quién votar”.
“Las utilidades de votación son un punto de partida, ver las noticias, dialogar con la gente, leer las declaraciones de los partidos”, puntualizó. “No es negativo que se impulse a las personas a informarse con mayor profundidad sobre política”.
A pesar de las posibles problemáticas, muchos argumentan que los modelos de asistentes conversacionales basados en IA generativa tienen el potencial de ser un instrumento útil para la toma de decisiones cívicas, siempre que se usen con propiedad.
“Si no tengo idea de a quién apoyar y simplemente le pregunto a ChatGPT cuál es el mejor partido antes de votar, entonces utilizar la IA es un ‘no’ rotundo”, asevera Jianlong Zhu, investigador doctoral del Departamento de Ciencias de la Computación de la Universidad de Saarland. “Jamás deberíamos delegar resoluciones de tan alto riesgo a terceros, y menos aún a un aparato”.
“Sin embargo, si vemos esta tutoría en el ámbito de la formación, si buscamos ayudar a los votantes a entender mejor el panorama político para que se interesen más, entonces creo que la IA podría ser un recurso viable”, añadió. “Aunque no estoy tan convencido de ChatGPT u otras interfaces disponibles tal como están”.
Una de las virtudes de la IA, en contraste con plataformas como Wahl-O-Mat, es su capacidad para simplificar conceptos intrincados para sus usuarios en tiempo real. “Si usas Wahl-O-Mat y, por ejemplo, de 38 preguntas hay 10 afirmaciones con términos que no comprendes o en los que no has reflexionado, lo que terminas haciendo es seleccionar opciones al azar”, explica Zhu.
“Pero con un asistente conversacional, puedes inquerir sobre el significado de esos términos, y el chatbot es eficiente al desglosarlos para asistirte a comprometerte mejor con el asunto”, concluyó.















Agregar Comentario