Los Ángeles.- Los programas de conversación con inteligencia artificial, incluso los más pequeños de código abierto, tienen la capacidad de moldear las posturas e intenciones de un electorado respecto a un político o una medida política. Estos sistemas, al ser optimizados para convencer, pueden llegar a diseminar datos falsos o engañosos.
Tal es la conclusión de dos investigaciones, con experimentos en cuatro naciones, publicadas por *Nature* y *Science*, dirigidas por las universidades de Cornell (EE. UU.) y Oxford (Reino Unido), respectivamente.
Dicha facultad reside en exponer un cúmulo de aseveraciones que sustentan sus argumentos a favor de las visiones electorales de los aspirantes, aunque no siempre sean “estrictamente exactas”, según David Rand, líder del estudio de Cornell.
Los hallazgos de Oxford apuntan a que el potencial de convencimiento de la IA probablemente surge de las tácticas posteriores al adiestramiento y de las directrices de ejecución, que potencian la habilidad de un LLM para generar información con celeridad durante el diálogo.
No obstante, se detectó un “intercambio preocupante: cuando se ajustan los sistemas de IA para la persuasión, pueden difundir más y más información falaz o errónea”, señala el estudio coordinado por Kobi Hackenburg, de Oxford.
La primera indagación se basó en intercambios con un programa de IA configurado para respaldar a uno de los contendientes en las presidenciales de EE. UU. de 2024 o las votaciones de Canadá y Polonia en 2025.
En EE. UU. se convocó a 2.306 ciudadanos, quienes manifestaron su probabilidad de votar por Donald Trump o Kamala Harris, y fueron asignados de forma aleatoria a un chatbot diseñado para apoyar a uno de los aspirantes.
Las opiniones de los individuos sobre su favorito se afianzaron levemente al dialogar con un robot con criterios coincidentes, un impacto más notorio en aquellos a quienes se logró convencer siendo inicialmente adversarios del político que el bot defendía.
En una escala de 100 puntos, el modelo de IA favorable a Harris inclinó a los probables votantes de Trump 3,9 unidades hacia ella, un efecto cercano a cuatro veces superior al de las propagandas convencionales ensayadas durante los comicios de 2016 y 2020.
Quizás le interese: Almirante Bradley rechaza responsabilidad en letal operativo contra traficantes de drogas
El programa pro-Trump movió a los votantes potenciales de Harris 1,51 puntos en dirección contraria, informó la Universidad de Cornell en una nota de prensa.
En las elecciones federales canadienses y las presidenciales polacas la repercusión fue mayor: los programas conversacionales alteraron las inclinaciones y las futuras decisiones de voto en alrededor de 10 puntos porcentuales.
El equipo también cotejó los argumentos del chatbot empleando un modelo de IA, el cual fue avalado por expertos en verificación de datos.
En promedio, las afirmaciones eran mayormente correctas, pero aquellos programados para favorecer a postulantes conservadores “emitieron más aseveraciones incorrectas que los que defendían a los progresistas en las tres naciones”, resaltó Cornell.
La investigación publicada en *Science* examinó los fundamentos detrás del poder de influencia política de la IA y reveló que son el ajuste posterior y las instrucciones dadas, más que la magnitud del modelo y la adaptación personalizada (suministrar al LLM datos del usuario).
El equipo de Oxford cuantificó las modificaciones en las opiniones de cerca de 77.000 participantes que abordaron más de 700 temas políticos con 19 modelos, desde pequeños sistemas de código abierto hasta los más avanzados.
La manera más efectiva de potenciar la persuasión fue “instruir a los modelos para que incluyeran tanta información como fuera posible en sus argumentos y brindarles formación complementaria enfocada en maximizar la influencia persuasiva”, aseveró Rand.
Las técnicas de post-entrenamiento y las órdenes sencillas de ejecución incrementaron la capacidad de persuasión drásticamente, hasta en un 51 % y un 27 %, respectivamente.
La contrapartida fue que los métodos y las directrices que lograban potenciar el convencimiento “a menudo lo hacían sacrificando la veracidad, lo que evidencia que optimizar un modelo de IA para influir puede menoscabar su exactitud de forma involuntaria”, indicó la publicación.
Dicho efecto podría deberse, según la hipótesis de Rand, a que, al forzar al chatbot a entregar más y más enunciados basados en hechos, este agota la información fidedigna y comienza a fabular.
Si bien los programas de conversación solo serán herramientas eficientes de convencimiento si la gente interactúa con ellos, es innegable que constituirán un componente creciente en las contiendas políticas. Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.










Agregar Comentario