Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
MADRID, 30 de mayo (Portaltic/EP) – Facebook ha experimentado un incremento en el contenido de tipo violento y en las conductas de acoso en la red social durante el primer trimestre de 2025, aunque ha disminuido sus errores de moderación en un 50% y ha reducido la cantidad de contenido eliminado por incumplir sus políticas. La empresa anunció en enero un cambio en su sistema de moderación, con el que dejó de usar a los verificadores externos para apostar por el programa de las notas de la comunidad. Igualmente, la tecnológica también anunció una serie de medidas para “facilitar la libertad de expresión” y reducir los errores de moderación, con cambios en sus políticas contra el discurso de odio. Ahora, Meta ha compartido su informe de integridad del primer trimestre de 2025, donde ha mostrado por primera vez cómo han afectado dichos cambios en el sistema de moderación y sus políticas contra los discursos de odio, con consecuencias como ligeros aumentos en el contenido violento y comportamientos de acoso. En concreto, la empresa ha indicado que ha logrado reducir los errores de moderación “a la mitad” entre el cuarto trimestre de 2024 y el final del primer trimestre de este año. Estos errores de moderación incluyen la eliminación de contenido que en realidad no infringía sus políticas. Para ello, Meta ha indicado que han empleado medidas como auditar sus sistemas automatizados para hallar dónde se estaban cometiendo más errores de moderación y, tras ello, desactivarlos para mejorar sus resultados. Asimismo, han utilizado señales adicionales para afinar la precisión de otros clasificadores. Siguiendo esta línea, también se han elevado los umbrales de los sistemas automatizados de moderación, aumentando la revisión del contenido para verificar si realmente está violando las políticas de Meta antes de eliminarlo, en algunos casos, “requiriendo múltiples capas de revisión”. En este sentido, Meta ha puntualizado que sus sistemas para gestionar el contenido en sus plataformas “se han vuelto cada vez más complejos”, por lo que trabajan para “encontrar el equilibrio adecuado”. “Si nuestra aplicación es demasiado limitada, corremos el riesgo de pasar por alto contenido potencialmente infractor, mientras que si es demasiado amplia, cometemos demasiados errores, lo que expone a demasiadas personas a medidas de control frustrantes”, ha precisado. Pese a esta mejora en los errores de moderación, la empresa ha registrado un “leve aumento” en la prevalencia de contenido sobre acoso e intimidación en Facebook. Concretamente, el porcentaje de este contenido ha crecido de 0,07 al 0,08 y se ha debido principalmente a un “aumento repentino en la cantidad de contenido infractor” compartido en marzo. También se ha observado un incremento en el contenido violento y gráfico en Facebook, donde ha aumentado del 0,07% al 0,09%, debido de igual forma a un incremento en la cantidad de contenido infractor compartido. Por otro lado, en varias áreas de política, Meta ha observado una disminución en la cantidad de contenido procesado, así como una bajada en la cantidad de “contenido apelado y finalmente restaurado”. En general, con el nuevo sistema de moderación, Meta ha reducido la cantidad de contenido eliminado en sus plataformas durante el primer trimestre de 2025, con casi un tercio menos de contenido retirado en Facebook e Instagram por incumplimiento de sus pautas, según ha recogido Wired. Concretamente, Meta ha eliminado aproximadamente un 50% menos de publicaciones por violar sus reglas de ‘spam’, un 36% menos de contenido no apto para niños y cerca de un 29% menos de publicaciones que representaban conductas de odio. Con todo ello, Meta ha indicado que planea ampliar su Informe de Cumplimiento de las Normas Comunitarias para incluir métricas sobre sus errores. De esta manera, los usuarios podrán “monitorizar” su progreso en este ámbito.