MADRID, 17 de enero. (Portlat/EP) – La red social descentralizada Bluesky tiene su propio equipo de moderación que trabaja a tiempo completo para revisar las quejas de los usuarios y el contenido identificado por sistemas automatizados, lo que llevó a la suspensión de casi 6.500 elementos, incluidas cuentas y publicaciones, por violar las reglas. La red social Bluesky aprovechó el cambio de rumbo del antiguo Twitter para crecer, alcanzando los 3 millones de usuarios y dotando a su servicio de medidas de censura, tanto a nivel interno como como herramienta para particulares y empresas, que tienen a su disposición herramientas para denunciar publicaciones.
cuentas o listados a través de la aplicación. Luego, este contenido fue revisado para ver si violaba las políticas de la plataforma. En este caso, Bluesky afirma haber seleccionado un equipo de moderadores humanos, contratados y especialmente capacitados, que han estado trabajando las 24 horas del día desde la primavera para verificar que las políticas de la plataforma se hayan violado o no.
El grupo revisó 358.165 quejas individuales, como se indica en las notas que acompañan a su primer informe de transparencia, que cubre 2023. En este documento, también informaron que el 5,6% de las personas de sus usuarios activos (o 76.699 cuentas individuales) han presentado una o más quejas. y 45.861 cuentas individuales (3,4%) fueron objeto de denuncia, en uno o más casos, ya sea contra la propia cuenta o contra una de sus publicaciones.
La Compañía podrá implementar suspensiones, temporales o permanentes, en los casos más severos, medida que se ha tomado sobre 4.667 cuentas y 1.817 activos individuales. Para detectar de forma proactiva contenido infractor, Buesky también utiliza herramientas automatizadas para actuar rápidamente sobre ellos, ya sea agregando etiquetas de advertencia o enviándolos al equipo de moderación. También pueden eliminar publicaciones que encuentren, como contenido sobre abuso y explotación infantil, que sean inaceptables en la plataforma.
HERRAMIENTAS DE AJUSTE El trabajo de moderación realizado en 2023 también incluye el rediseño de algunas características para minimizar el abuso y la creación de componentes para su infraestructura para respaldar el trabajo en el espacio de confianza y seguridad. También predicen la aparición de funciones de moderación adicionales, como la capacidad de silenciar y deshabilitar temporalmente cuentas, así como un programa de asociación para combatir la desinformación en publicaciones, por ejemplo, como Community Notes, de X (anteriormente Twitter), en el que los usuarios agregan contexto para calificar información falsa o engañosa. También será nuevo lo que la compañía llama moderación componible o conectable, un enfoque presentado en abril pasado que se basa en un ecosistema de proveedores externos, que tendrá moderación básica de forma predeterminada y filtros personalizados adicionales como un sistema de etiquetado, con etiquetas que pueden ser creados por servicios de terceros, administradores de la comunidad o los propios usuarios.
De manera similar, las cuentas de redes sociales te permiten crear listas de censura, desactivar y bloquear cuentas de comunidades enteras. Por su parte, los autores de publicaciones pueden agregar etiquetas para advertir sobre el tipo de contenido que los usuarios pueden encontrar y ajustar la configuración para decidir quién puede responder. La compañía agregó que también cuenta con un marco automatizado que ayuda a los equipos de moderación a combatir el spam, identificar patrones de comportamiento para marcar proactivamente contenido inaceptable antes de que los usuarios lo vean e informar ese contenido.