Tecnologia

Meta reemplazará a sus equipos de revisión con sistemas de IA para

8705247021.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

MADRID, 2 de junio (Portaltic/EP) –

Meta tiene previsto emplear principalmente sistemas de Inteligencia Artificial (IA) para evaluar los posibles peligros de las nuevas funciones diseñadas para incorporarse en sus plataformas de redes sociales, reemplazando en un 90 por ciento a sus equipos actuales de revisión.

Al lanzar nuevas herramientas para sus redes sociales, como Instagram, WhatsApp y Facebook, la empresa liderada por Mark Zuckerberg cuenta con equipos de revisores que evalúan los posibles riesgos de dichas funciones antes de su lanzamiento, con el objetivo de prevenir inconvenientes de privacidad o la propagación de contenido perjudicial, entre las posibles consecuencias.

En la actualidad, estos equipos están formados por personal que evalúa mediante distintos procesos las características de las nuevas funciones; sin embargo, Meta está considerando ahora sustituirlos por sistemas impulsados por IA para la mayoría de las evaluaciones de riesgos.

Así lo ha recogido el medio estadounidense NPR, que ha tenido acceso a documentos internos y declaraciones de fuentes cercanas a la empresa, donde se detalla que se trata de una medida pensada para lanzar más productos con mayor celeridad y “con un escrutinio y una oposición menos severa”.

Específicamente, el sistema de revisión impulsado por IA se encargará de realizar el 90 por ciento de las evaluaciones de riesgos, incluyendo nuevas características de seguridad o cambios en la forma de compartir contenido en la plataforma, lo cual también podrá influir en el funcionamiento de los algoritmos de las redes sociales.

Para ello, los equipos de producto deberán completar un cuestionario sobre la nueva función y, basándose en dicho cuestionario, los sistemas de IA identificarán las áreas de riesgo y los requisitos necesarios para abordarlas. De esta manera, los desarrolladores deberán verificar que sus funciones cumplen dichos requisitos para poder lanzarlas, pero no tendrán que ser aprobadas por los equipos de verificación.

Por lo tanto, al no estar sujetos a la verificación de los revisores, los cambios y novedades podrían tener repercusiones más inmediatas. “Es menos probable prevenir las externalidades negativas de los cambios de producto antes de que empiecen a causar problemas en el mundo”, ha declarado al respecto una de las fuentes relacionadas.

Por su parte, Meta ha informado al medio citado que los cambios en el proceso de revisión de riesgos de nuevas funciones permitirán agilizar la toma de decisiones y que, igualmente, continuarán utilizando la “experiencia humana” para abordar “problemas nuevos y complejos”.

En resumen, la tecnológica ha asegurado que “solo se están automatizando decisiones de bajo riesgo” mediante IA, aunque los documentos internos señalan que se incluyen cuestiones como el riesgo para los menores y categorías relacionadas con el contenido violento y la propagación de información falsa.

Estos cambios en el proceso de revisión de nuevas funciones coinciden con los informes de integridad del primer trimestre de 2025, donde se detalla que, tras dejar de emplear verificadores externos para su sistema de moderación en enero, Facebook ha registrado un incremento en el contenido de tipo violento y en los comportamientos de acoso en la red social.

TRA Digital

GRATIS
VER