Home Tecnología La moderación de contenido de Facebook ‘ocurre demasiado tarde’, dice la investigación

La moderación de contenido de Facebook ‘ocurre demasiado tarde’, dice la investigación

107
0

La investigación de la Northeastern University encuentra un “desajuste” entre la velocidad de la moderación de contenido de Facebook y su algoritmo de recomendación. Crédito: Alyssa Stone/Northeastern University

Ya sea de la Casa Blanca o de un vecino en su grupo comunitario de Facebook, una solicitud para eliminar una publicación de Facebook puede provocar acusaciones de censura o información errónea, o incluso convertirse en un meme.

¿Pero realmente es importante eliminar una publicación?

Una nueva investigación de la Northeastern University descubre que las publicaciones de Facebook se eliminaron por violar los estándares de la comunidad u otras razones ya habían alcanzado al menos las tres cuartas partes de su audiencia prevista cuando fueron retirados. El estudio se publica en el Journal of Online Trust and Safety.

“En Facebook, la moderación del contenido no tiene mucho impacto en la experiencia del usuario porque ocurre demasiado tarde”, dice Laura Edelson, profesora asistente de ciencias informáticas en Northeastern.

Todas las principales plataformas de redes sociales utilizan la moderación de contenido como una herramienta para evitar que el contenido dañino o ilegal se propague en sus sitios.

Sin embargo, tales compañías han sido cautelosas sobre qué significa exactamente esa moderación de contenido y la medida en que se practica, dicen los críticos.

Además, es difícil saber los efectos de esa moderación de contenido, después de todo, ¿cómo puedes medir lo que no sucedió?

Ahí es donde entra Edelson, que proporciona una nueva métrica llamada “Difusión prevenida”. La difusión preventiva utiliza el aprendizaje automático para analizar millones de publicaciones y predecir la difusión futura de una publicación dada.

“Queríamos entender cuál era el impacto de la moderación del contenido y, para hacer esto, la pregunta que realmente estamos haciendo es que, si el derribo no sucedió, ¿qué habría sucedido?” Edelson explica.

Para desarrollar y luego probar esta métrica, Edelson y sus colegas examinaron más de 2.6 millones de publicaciones de Facebook de 17,504 páginas únicas de noticias y entretenimiento con contenido en inglés estadounidense, ucraniano y ruso.

Los investigadores monitorearon las publicaciones regularmente (cada seis horas para páginas inglesas; y cada dos horas para las páginas ucranianas y rusas menos numerosas) entre el 17 de junio de 2023 y el 1 de agosto de 2023, para ver si se eliminaron las publicaciones y cuán rápido las publicaciones acumulan compromisos como me gusta, acciones, comentarios, etc., etc.

Los investigadores encontraron que solo unas pocas publicaciones eran responsables de la mayoría de los compromisos de los usuarios.

De hecho, el contenido más comprometido del 1% fue responsable del 58% de los compromisos de los usuarios en inglés americano, del 45% de los compromisos de los usuarios en ucraniano y del 57% en contenido ruso.

Esos compromisos también ocurren rápidamente.

Los investigadores encontraron que el 83.5% del compromiso “total” de un puesto se acumulan durante las primeras 48 horas, el puesto ha aumentado y que tardó un tiempo medio de tres horas en un Post alcanzar sus primeros 50% de los compromisos.

En cuanto a las publicaciones que fueron eliminadas, los investigadores encontraron que este era un grupo pequeño.

De los 2.6 millones de puestos analizados, los investigadores encontraron que se eliminaron 12,864 puestos en inglés (0.7%), 1,071 puestos en ucraniano (0.2%) y 2,223 puestos en ruso (0.5%), según el estudio.

Y, aunque la investigación no determinó exactamente por qué una publicación pudo haber sido eliminada, Edelson señala que la mayoría de las publicaciones eliminadas eran “una variedad de spam”.

“Esto es en lo que se centran la mayoría de la moderación de contenido en las plataformas: cosas que son clickbait, cosas que son spam y cosas que son fraude”, dice Edelson.

Finalmente, los investigadores descubrieron que la eliminación de publicaciones impidió solo el 24% al 30% del compromiso predicho de los puestos.

“Lo que esto nos dice es que si la moderación de contenido tendrá un impacto en la experiencia del usuario, es decir, si una plataforma va a utilizar la moderación de contenido como una estrategia para no mostrar las cosas malas de los usuarios, esa moderación de contenido debe suceder a la misma velocidad que el algoritmo de contenido recomienda cosas a las personas”, dice Edelson. “En este caso, Facebook tiene un algoritmo de alimentación rápida y moderación lenta de contenido.

“No es necesariamente un problema que la moderación de contenido sea lenta; no es necesariamente un problema cuando un algoritmo de alimentación es rápido”, dice Edelson. “El problema es el desajuste entre los dos”.

Más información: Laura Edelson et al, Medición y métricas para la moderación de contenido, Journal of Online Trust and Safety (2025). Doi: 10.54501/jots.v2i5.220

Proporcionado por la Universidad del Nordeste

Esta historia se vuelve a publicar por cortesía de Northeastern Global News News.northeastern.edu.

Cita: la moderación de contenido de Facebook ‘sucede demasiado tarde’, dice Research (2025, 30 de mayo) recuperado el 30 de mayo de 2025 de https://techxplore.com/news/2025-05-facebook-content-moderation-late.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.