NUEVA YORK (HealthDay News). — Tres de cada cuatro veces, tus amigos de Facebook no leen más allá del titular cuando comparten un enlace a contenido político.
Los expertos dicen que esto es sorprendente y francamente aterrador. S. Shyam Sundar, profesor de efectos de los medios en la Universidad Estatal, advierte Las personas que comparten sin hacer clic pueden estar apoyando involuntariamente a sus oponentes. La hostilidad tiene como objetivo sembrar división y desconfianza. Pensilvania.
«El manejo deficiente de los titulares y los anuncios puede ser peligroso si se comparten y no se investigan datos engañosos», dijo Sundar, autor correspondiente del estudio, publicado en la revista «Nature Human Behavior».
«Las campañas de desinformación tienen como objetivo sembrar dudas o disidencia en una democracia, y el alcance de estos esfuerzos ha quedado revelado en las elecciones de 2016 y 2020» en Estados Unidos.
El equipo de Sundar analizó 35 millones de publicaciones que contenían enlaces compartidos en Facebook entre 2017 y 2020. Este enlace incluye contenido político extremista y se comparte sin clics frecuentes como un enlace políticamente neutral
. Aunque el estudio se limitó a Facebook, los investigadores dicen que sus hallazgos son aplicables a otras plataformas.
Datos analíticos proporcionados con permiso en asociación con la empresa matriz de Facebook, Meta.
Estos incluyen información demográfica y de comportamiento del usuario, incluida la «Puntuación de afinidad política de la página». Esto se determina identificando las páginas que siguen.
Los usuarios se dividen en cinco grupos: muy liberales, progresistas, neutrales, conservadores y muy conservadores. Luego, los investigadores utilizaron IA para encontrar y clasificar términos políticos en el contenido vinculado, clasificando el contenido en la misma escala, según la cantidad de acciones de cada grupo de interés.
Uno por uno, los investigadores lo hicieron manualmente. clasificó los 8.000 enlaces, identificando el contenido como político o apolítico. Estos datos impulsaron un algoritmo que analizó 35 millones de enlaces compartidos más de 100 veces por usuarios de Facebook en los Estados Unidos.
De este análisis, surgió un patrón que se aplicaba individualmente.
«Cuanto más cerca esté la alineación política del contenido para los usuarios, tanto liberales como conservadores, más probabilidades habrá de que se comparta sin necesidad de hacer clic», coautor Eugene Cho Snyder. de investigación y profesor asistente de humanidades y sociedad. del Instituto de Tecnología de Nueva Jersey. «Simplemente transmiten información que aparentemente se ajusta a su ideología política sin darse cuenta de que a veces pueden compartir información errónea».
Meta también proporciona datos de un servicio de verificación de datos de terceros. , informó más de 2.900 enlaces a contenido falso.
En total, estos enlaces se compartieron más de 41 millones de veces sin que se hiciera clic en ellos.
De ellos, el 77% procedía de usuarios conservadores y el 14% procedía de usuarios liberales. Los investigadores descubrieron que el 82% de los enlaces a noticias falsas procedían de dominios de noticias conservadores.
Sundar dice que “tal vez la razón por la que esto sucede es porque las personas simplemente son bombardeadas con información y no se detienen. piensa en ello