MADRID. Gobiernos, empresas y redes coordinadas están aprendiendo a influir directamente en chatbots como ChatGPT. Investigaciones europeas advierten sobre una nueva etapa de la propaganda: ahora no solo se dirige a las personas, sino también a las máquinas que responden en su nombre.
En una escena propia de una serie distópica, en 2025 hemos presenciado cómo una empresa ha firmado un acuerdo millonario con un país, Israel, para manipular las respuestas de ChatGPT, lo que ejemplifica una tendencia creciente en la desinformación, tal como han demostrado varias investigaciones este año.
Se trata de una nueva fase en las campañas de desinformación, sobre la cual ha alertado el Servicio Europeo de Acción Exterior (SEAE), que identifica a Rusia como la principal amenaza.
“Hoy, Moscú no se limita a difundir narrativas diseñadas para sus lectores, sino que el objetivo de sus redes de desinformación son también las máquinas, una estrategia cada vez más relevante dado que muchos usuarios están reemplazando las búsquedas en Google por herramientas de IA como ChatGPT”, señala en un reciente artículo el servicio diplomático de la Unión Europea.
En este contexto, diversos investigadores han analizado los intentos de la red Pravda (“verdad”, en ruso) de manipular los bots conversacionales de inteligencia artificial, aunque no es el único actor conocido.
Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy
Lea más: El oscuro negocio de la desinformación
El ejemplo mencionado al inicio de esta información se refiere a la empresa estadounidense Clock Tower X, que el 27 de agosto firmó con el Gobierno de Israel un contrato por seis millones de dólares para difundir narrativas favorables al Estado hebreo, según informó el Quincy Institute for Responsible Statecraft, con sede en Washington.
Como se puede comprobar en el contrato registrado por la Administración estadounidense, los servicios incluyen la creación de sitios web destinados a influir en las aplicaciones de IA, además de otras acciones en diversos medios y redes sociales.
Manipular las herramientas conversacionales de IA permite alcanzar a una audiencia masiva, ya que los generadores de inteligencia artificial reciben alrededor de 7.000 millones de visitas mensuales en todo el mundo, de las cuales ChatGPT concentra un 80 por ciento, según la empresa de análisis de tráfico en internet Similarweb.
“Temo que los creadores de desinformación han comprendido que estos sistemas conversacionales basados en IA pueden convertirse en un vector adicional para inocular sus discursos”, explica a EFE Verifica Ramón Salaverría, coordinador del Observatorio Ibérico de Medios Digitales (Iberifier), sobre la creciente influencia de los chatbots.
El también catedrático de Periodismo de la Universidad española de Navarra advierte que estas manipulaciones “tienen un potencial lesivo muy grande”.
La técnica consiste en inundar internet de desinformación para que esta sea detectada e incorporada por los bots conversacionales.
El método recibe en inglés el nombre de LLM Grooming (manipulación de los Grandes Modelos de Lenguaje), según el término acuñado por la organización American Sunlight Project.
Lea más: Terraplanismo, dinonegacionismo y más: ¿por qué la gente cree en este tipo de teorías?
En diferentes estudios, este grupo de investigación y NewsGuard, compañía que evalúa la fiabilidad de las noticias en línea, han explicado su funcionamiento.
La red Pravda, presente en medio centenar de países y en decenas de idiomas, produjo en 2024 al menos 3,6 millones de artículos a través de 150 dominios, lo que equivale a un promedio de 20.273 publicaciones cada dos días.
La manipulación se centra en los tókenes, las unidades fundamentales de texto que los modelos de IA usan para procesar el lenguaje, las cuales pueden ser “tan pequeñas como un solo carácter o tan grandes como una palabra completa”, explica NewsGuard.
De este modo, se incrementa la probabilidad de que la inteligencia artificial genere o cite estas narrativas falsas.
Además, los desinformadores emplean estrategias de optimización para motores de búsqueda (SEO) dirigidas a la IA.
El análisis de NewsGuard, publicado en marzo, detectó que en un 33 por ciento de las consultas los diez bots conversacionales examinados —incluidos ChatGPT, Gemini y Grok— replicaron engaños difundidos por Pravda.
Siete de los diez chatbots citaron directamente a la red como supuesto origen legítimo de la información.
Incluso al desmentir una afirmación falsa, algunas respuestas incluían artículos de Pravda en sus listas de fuentes.
La propaganda de esta red en las aplicaciones también está presente en idiomas como finés, sueco, danés y noruego, según los hallazgos de una investigación propia del centro Nordis del Observatorio Europeo de Medios Digitales (EDMO, por sus siglas en inglés).
Su impacto alcanza asimismo a Wikipedia, como explica un estudio del estadounidense Laboratorio de Investigación Forense Digital (DFRLab) y la organización finlandesa Check First.
Casi 2.000 artículos de Pravda estaban presentes en esta enciclopedia colaborativa en ruso y ucraniano, algo “especialmente preocupante” debido al “importante papel que desempeña Wikipedia como fuente principal de conocimiento” para los bots, indica el informe.
Por otra parte, sin que se haya establecido un vínculo con la manipulación de las aplicaciones de IA, las narrativas favorables al Kremlin han llegado a otros ámbitos con el prestigio de fuentes de autoridad.
Salaverría explica que en la investigación académica, especialmente en las ciencias políticas y sociales, se ha comenzado a observar “la multiplicación de estudios alineados con la propaganda prorrusa”, que “ocasionalmente terminan publicándose en revistas académicas internacionales”.
“Creo que el mundo científico debería estar alerta ante este peligro”, advierte. Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.










Agregar Comentario