Fuente: El Economista
PARÍS – Los algoritmos no son neutrales en cuanto a valores. Sin embargo, durante más de una década hemos permitido que las grandes empresas tecnológicas los usen como guardianes de nuestro ecosistema informativo sin exigir transparencia ni responsabilidad a cambio. Esto ha provocado desde la amplificación de contenidos polarizantes y sensacionalistas hasta la publicidad personalizada oculta, además del auge de prácticas monopolísticas y formas de influencia sobre el discurso público que contradicen la deliberación democrática.
Aunque aprendimos a la fuerza las consecuencias de entregar el control de infraestructuras críticas de información a intereses corporativos sin supervisión alguna, ahora estamos cometiendo el mismo error con los chatbots de IA —y lo que está en juego podría ser aún más grave—. Estos chatbots no solo seleccionan información preexistente; también la generan y contextualizan. Mientras Facebook y Google decidían qué noticias mostrar, herramientas como ChatGPT, Claude y Gemini sintetizan esa información en respuestas que parecen confiables.
Esta distinción es clave, porque el paso de curador a editor hace que la influencia indebida sea aún más oculta y dañina. Nuevamente, estamos entregando a empresas privadas un poder sin precedentes sobre la infraestructura informativa futura sin exigir vigilancia independiente. La amenaza principal no es que estos sistemas de IA se rebelen, sino que un pequeño grupo con intereses propios se está transformando rápidamente en los guardianes de la información para una gran parte y creciente población.
Los chatbots actuales no son solo grandes modelos de lenguaje (LLM). Se basan en múltiples capas algorítmicas opacas que influyen durante el desarrollo e implementación del modelo, y cada una puede servir como punto de acceso para que plataformas u otros actores manipulen la información según sus objetivos.
Esta “estructura de influencia algorítmica” comprende al menos cinco niveles. El primero es la selección de datos para entrenamiento. Al decidir qué incluir o excluir, las plataformas toman decisiones poco claras sobre las fuentes, cómo ponderar perspectivas diversas y qué contenido filtrar. Estas decisiones configuran la visión del mundo del modelo. Por ejemplo, en octubre de 2025 Elon Musk lanzó Grokipedia para proporcionar datos de entrenamiento a su chatbot Grok; una enciclopedia gestionada por una empresa con la intención de ofrecer una alternativa “anti-woke” a Wikipedia y su modelo comunitario, que durante mucho tiempo ha sido una fuente confiable en internet.
La segunda capa corresponde al aprendizaje por refuerzo mediante retroalimentación humana e IA, proceso que transformó a los LLMs impredecibles en “asistentes” útiles. En esta fase post-entrenamiento, revisores humanos evalúan resultados para orientar el sistema hacia comportamientos deseados como utilidad o cortesía. Actualmente estas evaluaciones humanas siguen siendo centrales y mayormente invisibles en la industria IA, aunque cada vez más están siendo reemplazadas por “profesores” IA especializados encargados supuestamente de alinear el modelo con principios codificados en una “constitución”.
La tercera capa es la búsqueda web. Cuando los chatbots realizan búsquedas o acceden a bases digitales, los sistemas aumentados por recuperación (RAG) deciden qué datos incluir en las respuestas. Esta función se parece a la de motores tradicionales que priorizan ciertas fuentes. Como ocurre con estos motores, la incorporación de anuncios en respuestas —algo anunciado para ChatGPT en 2026— generará nuevas dudas sobre objetividad.
La cuarta capa consiste en las indicaciones del sistema. Activadas al generar respuestas, permiten modificar el comportamiento del chatbot sin necesidad de reentrenarlo. Por ejemplo, al hacerse pública la indicación del sistema de Grok el año pasado sabemos que incluye directivas como “no evites hacer afirmaciones políticamente incorrectas”. ChatGPT, Claude y Gemini también usan estas indicaciones pero siguen siendo confidenciales.
Finalmente, la quinta capa son los filtros de seguridad. Antes de que una consulta llegue al modelo, los filtros de entrada determinan si es “aceptable”. De manera similar, tras generar una respuesta los filtros finales pueden modificar o censurar contenido antes de mostrárselo al usuario. Aunque bloquear ciertas consultas (como instrucciones para fabricar explosivos) tiene justificaciones legítimas, la falta de transparencia deja muchas incógnitas abiertas. Los desarrolladores podrían habilitar una censura sistemática sin que nadie lo sepa. Por ejemplo, los filtros “de seguridad” en chatbots chinos eliminan todas las referencias a la masacre de Tiananmen.
Los intereses políticos y corporativos ya moldean esta estructura algorítmica justo cuando los chatbots se despliegan mundialmente. Tras la segunda investidura de Donald Trump, Apple actualizó sus instrucciones IA para evitar etiquetar a partidarios MAGA como “radicales” o “extremistas”. El verano pasado Reuters reveló que Meta relajó sus salvaguardas internas para impedir comentarios racistas o conductas inapropiadas con menores en sus chatbots, entre otras medidas. En mayo pasado Grok amplificó afirmaciones infundadas sobre un “genocidio blanco” en Sudáfrica (el propio Musk es sudafricano blanco). Aunque la empresa atribuyó esto a “modificaciones no autorizadas”, estos “errores” son frecuentes y coinciden ideológicamente con las opiniones del propio Musk.
La manipulación política mediante chatbots ya ha probado su eficacia. Un estudio publicado en Nature en 2025 mostró que chatbots entrenados para apoyar un candidato podían influir fácilmente en votantes moderados e indecisos —los grupos decisivos en muchas elecciones—.
Mientras los regímenes autoritarios ejercen control explícito sobre información, las democracias dependen de pluralidad y ecosistemas informativos transparentes y responsables. Permitir un poder centralizado e irresponsable sobre infraestructura IA invita a una deriva tecno-autoritara; pues cada capa puede instrumentalizarse para amplificar o suprimir opiniones sin recurrir a censura abierta.
En diciembre pasado la Comisión Europea sancionó con 120 millones de euros (138 millones dólares) a X por “incumplir obligaciones de transparencia bajo la Ley de Servicios Digitales”. Como era esperable, X y sus defensores calificaron esto como un ataque a libre expresión. Pero la transparencia es esencial para defender esa libertad; sin ella no sabremos quién es censurado ni qué influencias afectan nuestros medios consumidos.
El auge de redes sociales nos enseñó qué ocurre cuando rendición de cuentas queda rezagada frente a adopción tecnológica. No podemos permitir repetir esos errores con sistemas que tienen un poder aún mayor sobre el conocimiento público.
Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.









Agregar Comentario