BBC.-El ex capitán de Inglaterra se dirigió a un comité parlamentario conjunto que buscaba posibles mejoras al proyecto de ley de seguridad en línea del gobierno.
«Autoestima, su salud mental está en riesgo», dijo Ferdinand.
El exdefensa del Manchester United dijo que era «descorazonador» ver que el racismo en el fútbol alcanzara los niveles de los años setenta y ochenta.
Citó el abuso recibido por los jugadores ingleses Marcus Rashford, Bukayo Saka y Jadon Sancho después de la derrota en la tanda de penaltis de julio ante Italia en la final de la Eurocopa 2020.
«Cuando esos tres jugadores fallaron esos penaltis, lo primero que pensé fue ‘veamos qué pasa en las redes sociales'», dijo Ferdinand.
«Esperaba que ocurriera [el abuso]».
El miércoles, el hermano de Ferdinand, Anton, habló con el comité de selección de Asuntos del Interior y preguntó si sería una tragedia para las empresas de redes sociales actuar sobre el abuso racista en línea.
En esa audiencia, representantes de Twitter e Instagram argumentaron que estaban intentando abordar el problema.
Katy Minshall, directora de políticas públicas y filantropía del Reino Unido en Twitter, dijo que la compañía estaba comenzando a enfocar su trabajo en la facilidad con la que se podía contactar a los futbolistas en las redes sociales, mientras que Tara Hopkins, directora de políticas públicas de Instagram, dijo que el 95% de contenido de odio se eliminó de forma proactiva de la plataforma.
Rio Ferdinand dijo al comité conjunto de parlamentarios y colegas que era «desconcertante» que las empresas de redes sociales tuvieran herramientas que rastrean las infracciones de derechos de autor en, por ejemplo, su canal de YouTube, pero no pudieran usar esa misma tecnología para captar ciertos emojis o palabras utilizadas en publicaciones racialmente abusivas.
Hizo hincapié en que el contenido dañino afectaba más que solo a la persona que lo recibió, diciendo: «He visto a miembros de mi familia desintegrarse en momentos en que sucede».
«Tengo que sentarme allí con mis hijos y explicar qué significa el emoji de mono en ese contexto», agregó Ferdinand.
El exjugador de Leeds y West Ham condenó el hecho de que a los perpetradores se les permitiera permanecer en el anonimato en línea, diciendo que estaba «normalizando el comportamiento racista«.
«Si lo pones en el contexto de un joven que apoya a cierto jugador en cualquier nivel, él está mirando a través de esa fuente y viendo un lenguaje racista», continuó.
“Ese joven entra entonces en su red de amigos y ‘está bien, es normal, así que lo diré en la escuela, así que está bien’.
«Cuando no hay repercusiones, no se hace nada para exponer a esa persona por su lenguaje ignorante, entonces la gente va a pensar que es normal».
Ferdinand estuvo de acuerdo en que las empresas de medios sociales se beneficiaron de los prejuicios y dijo que poner la responsabilidad en las víctimas de denunciar el abuso o bloquear a los abusadores era «una forma fácil de escapar» para las plataformas.
Se necesita un enfoque ‘en capas’ para verificar a los usuarios
Ferdinand habló con el comité junto con Edleen John, director de relaciones internacionales, asuntos corporativos e igualdad, diversidad e inclusión de la Asociación de Fútbol, y el presidente de Kick It Out, Sanjay Bhandari.
John comentó cómo el proyecto de ley podría abordar el tema de la verificación de identidad para los usuarios de las redes sociales, sugiriendo un enfoque «en capas».
«Las empresas de redes sociales parecen creer que es una opción binaria en la que la gente tiene que proporcionar toda la información o ninguna», dijo.
En cambio, John sugirió que se podrían usar «múltiples mecanismos» para abordar el problema, utilizando la verificación de identidad junto con la «configuración predeterminada» y limitando el alcance de una cuenta.
Ella creía que este enfoque reduciría el uso de cuentas ‘quemadoras’, que están configuradas para enviar mensajes abusivos antes de ser eliminados rápidamente, y los usuarios pueden configurar una nueva cuenta poco después.
John dijo que «constantemente recibe tópicos» de las organizaciones de medios sociales en respuesta a preocupaciones y citó evidencia anecdótica de un jugador que fue bloqueado por una plataforma por denunciar abusos demasiadas veces.
Bhandari dijo que el sistema actual es «sin fricciones» y pidió una enmienda al proyecto de ley que le daría al regulador de comunicaciones Ofcom «poder para introducir códigos de práctica».
«Es necesario darle a Ofcom el poder de regular el contenido nocivo pero legal», dijo.
Bhandari agregó que la respuesta pública al abuso del trío de Inglaterra después de la final de la Euro 2020 debería ofrecer un modelo para futuras regulaciones.
«La condena pública unificada de eso nos dice que lo que el público está exigiendo es que todo el odio que se escupió esa noche tenía que ser sacado de las plataformas», continuó.
«La forma de hacerlo es dándole a un regulador el poder de reflejar las prácticas sociales contemporáneas.
«Tendríamos que poner frenos y contrapesos. También tenemos que equilibrarnos frente a lidiar con un problema en evolución. No podemos legislar a través del espejo retrovisor, tenemos que legislar a través del parabrisas, mirando hacia adelante».
Imran Ahmed, director ejecutivo y fundador del Centro para la lucha contra el odio digital (CCDH), también habló en la audiencia después de que un informe de su organización en julio descubrió que Instagram no eliminó el 94% de las cuentas que habían enviado mensajes racistas a Rashford, Saka y Sancho tras la derrota final de la Eurocopa.
«Cuando se trata de racismo contra los futbolistas, la razón por la que el abuso es importante no es porque sean futbolistas adinerados», dijo Ahmed.
«Imagínense cómo me llamarían a mí, a mi madre oa cualquier otra persona de una minoría. Es una sensación de ‘estos lugares no son para ti. Estos son nuestros lugares'».
¿Qué es el proyecto de ley de seguridad en línea?
La audiencia del comité es uno de los varios pasos en el proceso del proyecto de ley, que tiene como objetivo «establecer un nuevo marco regulatorio para abordar el contenido nocivo en línea», que se convierte en ley.
El proyecto de ley impone nuevos deberes a las empresas de redes sociales para que eliminen el contenido dañino rápidamente o posiblemente se enfrenten a multas de miles de millones de libras.
Algunos activistas dicen que los planes conducirán a la censura , mientras que otros advierten que las multas no van lo suficientemente lejos.
El proyecto de ley se ha estado elaborando durante dos años y está especialmente orientado a proteger a los niños.
Además del abuso racista, cubre el terrorismo, la desinformación, la pornografía, el grooming, la pornografía de venganza, el discurso de odio, las imágenes de abuso infantil y las publicaciones relacionadas con el suicidio y los trastornos alimentarios.
Las adiciones tardías al proyecto de ley incluyen disposiciones para abordar las estafas en línea, como el fraude romántico y las oportunidades de inversión falsas.