Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Torre-Pacheco disfruta de tranquilidad. Sin embargo, esa calma coexiste con una campaña de odio en las redes sociales: perfiles ligados al entorno de la ultraderecha propagan mensajes xenófobos y racistas que señalan a la población migrante, a la que incluso llaman “moros de mierda”.
Los mensajes, difundidos a través de canales habituales del entorno de Vox, no solo insultan o estigmatizan, sino que imitan a organizaciones supremacistas como el Ku Klux Klan. Se hace un llamamiento a la “defensa del pueblo español”, se propone la creación de patrullas vecinales armadas con palos y se lanzan amenazas directas:”Hay que mandarlos al hospital”, se dice en algunos vídeos.
El tono, el lenguaje y las propuestas extremas reúnen todos los elementos para ser considerados delito de odio según el Código Penal. A pesar de ello, este tipo de contenido sigue siendo accesible públicamente en plataformas como X (antes Twitter), Facebook o TikTok. ¿Por qué no se elimina? ¿Por qué sigue circulando?
Sí, es factible. De hecho, sería lo correcto. Pero hay un detalle: para que las redes sociales estén obligadas a actuar, se requiere una notificación previa. Únicamente cuando una plataforma recibe un aviso -ya sea de la policía, de la Fiscalía o de un usuario-, tiene el deber de examinar si el contenido infringe la ley y, en caso afirmativo, retirarlo.
En otras palabras, sin esa denuncia inicial, no están legalmente obligadas a eliminar nada, aunque el contenido sea claramente delictivo. Algunas plataformas sí lo hacen por iniciativa propia en casos muy específicos, como la pederastia, pero en el caso del discurso de odio no disponen de sistemas de detección generalizados. Y, lo más relevante: no están obligadas a tenerlos.
La explicación reside en el diseño legal original de internet. Las redes sociales no son consideradas responsables del contenido que se publica en ellas… hasta que tienen conocimiento de que ese contenido es ilegal. Si se les exigiera vigilar y eliminar todo por iniciativa propia, el sistema completo en el que se basan las redes sociales colapsaría. No es que no puedan, es que no quieren, y los gobiernos, por el momento, tampoco fuerzan ese cambio, como señala el consultor de estrategia digital, Borja Adsuara.
Para paliar esta falta de control, existen iniciativas como el sistema FARO, del Ministerio de Inclusión. Se trata de un equipo que, mediante algoritmos y supervisión humana, analiza redes sociales en busca de discursos de odio. En el primer semestre de 2025, FARO detectó más de 340.000 mensajes de este tipo. De ellos, notificó 1.607 publicaciones a las plataformas. Solo 498 fueron retiradas.
TikTok sobresale como la más eficiente, eliminando casi todo lo que se le notifica. En contraste, YouTube y X apenas retiran contenidos, y cuando lo hacen, no son precisamente rápidas.
Ante esta situación, el Ministerio de Inclusión planea reunirse con estas plataformas para pedir mayor implicación y agilidad. Pero, por ahora, la realidad es que los mensajes de odio continúan visibles. Incluso aquellos que promueven patrullas armadas contra migrantes o imitan las tácticas de grupos supremacistas como el Ku Klux Klan.
Agregar Comentario