Salud

Salud mental: TikTok una vez más criticado en un informe de Amnistía Internacional

8925695070.png
Hace ya dos años, una joven de 18 años, a quien denominaremos Emma, instaló TikTok por primera vez en su dispositivo móvil.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

La Organización No Gubernamental (ONG) llevó a cabo una investigación exhaustiva durante varios meses sobre los perjuicios de la red social TikTok y las repercusiones que estos generan en el bienestar psicológico de los usuarios más jóvenes.

Hace ya dos años, una joven de 18 años, a quien denominaremos Emma, instaló TikTok por primera vez en su dispositivo móvil. Inicialmente, los videos sugeridos por la aplicación se alineaban con los intereses que ella había manifestado. No obstante, al cabo de pocos minutos, un videoclip musical captó su atención. “La melodía abordaba las adversidades que el artista podía experimentar en temas vinculados a la tristeza profunda. Dado que permanecí un tiempo considerable viendo ese video, la plataforma me propuso otros similares. Así fue como empecé a adentrarme en esa vorágine. Y la situación empeoró progresivamente”, relata ella misma.

En el transcurso de una semana, y sin haberlo pedido de forma explícita, la adolescente se encontró con videos cada vez más nocivos. “Material que trivializa la muerte, que promueve la autolesión, así como toda clase de conductas arriesgadas y perjudiciales”. El estado de salud de Emma se deterioró. Sus sesiones con el psicólogo resultaron insuficientes. La joven, sumida en la depresión, tuvo que ser hospitalizada en seis ocasiones distintas.

Su testimonio concuerda con las conclusiones extraídas del informe de Amnistía Internacional. La ONG creó tres perfiles simulados de jóvenes de 13 años en TikTok y llegó a dos determinaciones clave: el contenido tóxico aparece de manera muy rápida, incluso antes de que el usuario haya expresado alguna preferencia específica.

“Cuando establecimos las tres cuentas ficticias de adolescentes, no dimos ningún ‘me gusta’, no compartimos nada, no emitimos comentarios, ni realizamos búsquedas; simplemente visualizamos dos veces videos relacionados con la salud mental”, explica Katia Roux, encargada de incidencia política en Amnistía Internacional Francia. “Y, a pesar de ello, fue suficiente para que los ‘feeds’ de esas cuentas se llenaran y fuesen inundados prácticamente por contenido de esta índole. Tras solo 45 minutos, ya teníamos el primer material relacionado con la autolesión y el suicidio en dos de esos tres perfiles. Así que, sí, la aparición fue muy acelerada”.

Según la ONG, las políticas de moderación de TikTok siguen siendo inadecuadas. Instan a la plataforma a reconsiderar su modelo de negocio con el fin de garantizar la protección de sus usuarios. Esta perspectiva también es compartida por Stéphanie, cuya hija se quitó la vida hace cinco años luego de ver contenido dañino en TikTok: “Se le podrían haber ofrecido videos más agradables o programas de ejercicios, o incluso sugerirle: ‘Sal a dar un paseo’. Pero el inconveniente radica en que, si le proponen eso, dejará de estar conectada a la plataforma. Y, de hecho, el objetivo fundamental de TikTok es maximizar el tiempo de permanencia en la red social. La infancia les importa bien poco”.

Junto a otras diez familias, agrupadas en un mismo colectivo, Stéphanie ha interpuesto una acción legal ante la justicia francesa contra TikTok por el cargo de “incitación al suicidio”. Dicha denuncia se encuentra todavía en la fase de instrucción. Por su lado, Emma lucha por su recuperación: “He visto esos videos y hay imágenes que se me han quedado grabadas en la memoria. Esos contenidos me acompañarán durante mucho tiempo…”. No obstante, ahora ella se dedica a denunciar todo el material nocivo que contamina sus redes sociales.

TRA Digital

GRATIS
VER