Home Tecnología Aumento de ‘contenido dañino’ desde meta reversiones de políticas: encuesta

Aumento de ‘contenido dañino’ desde meta reversiones de políticas: encuesta

77
0

Meta abandonó la verificación de hechos de terceros en los Estados Unidos en enero.

El contenido dañino, incluido el discurso de odio, ha aumentado en las plataformas de Meta desde que la compañía terminó la verificación de hechos de terceros en los Estados Unidos y facilitó las políticas de moderación, mostró el lunes una encuesta.

La encuesta de alrededor de 7,000 usuarios activos en Instagram, Facebook y Threads se produce después de que la compañía Palo Alto abandonó los controles de hechos de los Estados Unidos en enero y entregó la tarea de desacreditar las falsedades a los usuarios comunes bajo un modelo conocido como “Notas comunitarias”, popularizado por X.

La decisión fue ampliamente vista como un intento de apaciguar la nueva administración del presidente Donald Trump, cuya base de apoyo conservador se ha quejado durante mucho tiempo de que verificar las plataformas tecnológicas era una forma de reducir la libertad de expresión y censurar el contenido de derecha.

Meta también retrocedió restricciones en torno a temas como el género y la identidad sexual. Las pautas de la comunidad actualizadas del gigante tecnológico dijeron que sus plataformas permitirían a los usuarios acusar a personas de “enfermedad mental” o “anormalidad” en función de su género o orientación sexual.

“Estos cambios de política significaban una reversión dramática de los estándares de moderación de contenido que la compañía había construido durante casi una década”, dijo la encuesta publicada por grupos de derechos digitales y humanos, incluidos Ultraviolet, Glaad y todo.

“Entre nuestra población de encuestas de aproximadamente 7,000 usuarios activos, encontramos evidencia marcada de un mayor contenido dañino, disminución de la libertad de expresión y una mayor autocensura”.

Uno de cada seis encuestados en la encuesta informó ser víctima de alguna forma de violencia sexual o basada en género en meta plataformas, mientras que el 66% dijo que habían presenciado contenido dañino como material odioso o violento.

El noventa y dos por ciento de los usuarios encuestados dijeron que estaban preocupados por aumentar el contenido dañino y se sentían “menos protegidos de ser expuestos o dirigidos por” tal material en las plataformas de Meta.

El setenta y siete por ciento de los encuestados describieron sentirse “menos seguros” expresándose libremente.

La compañía declinó hacer comentarios sobre la encuesta.

En su informe trimestral más reciente, publicado en mayo, Meta insistió en que los cambios en enero habían dejado un impacto mínimo.

“Después de los cambios anunciados en enero, hemos reducido los errores de aplicación en los EE. UU. A la mitad, mientras que durante ese mismo período de tiempo, la baja prevalencia de violar el contenido en la plataforma permaneció en gran medida sin cambios para la mayoría de las áreas problemáticas”, dijo el informe.

Pero los grupos detrás de la encuesta insistieron en que el informe no reflejaba las experiencias de los usuarios de odio y acoso objetivo.

“Las redes sociales ya no son un lugar donde ‘vamos’. Es un lugar donde vivimos, trabajamos y jugamos. Por eso es más crucial que nunca asegurarse de que todas las personas puedan acceder de manera segura a estos espacios y expresarse libremente sin temor a una retribución”, dijo Jenna Sherman, directora de campaña de Ultraviolet.

“Pero después de ayudar a establecer un estándar para la moderación de contenido en línea durante casi una década, (director ejecutivo) Mark Zuckerberg decidió trasladar su empresa al revés, abandonando a los usuarios vulnerables en el proceso.

“Facebook e Instagram ya tenían un problema de capital. Ahora, está fuera de control”, agregó Sherman.

Los grupos imploraron a Meta que contratara a un tercero independiente para “analizar formalmente los cambios en el contenido dañino facilitados por los cambios de política” realizados en enero, y para que el gigante tecnológico restablezca rápidamente los estándares de moderación de contenido que existían antes.

La red internacional de verificación de hechos ha advertido previamente de consecuencias devastadoras si Meta amplía su cambio de política relacionado con los verificadores de hechos más allá de las fronteras estadounidenses a los programas de la compañía que cubren más de 100 países.

AFP actualmente trabaja en 26 idiomas con el programa de verificación de hechos de Meta, incluso en Asia, América Latina y la Unión Europea.

© 2025 AFP

Citación: Aumento de ‘contenido dañino’ desde meta reversiones de políticas: encuesta (2025, 17 de junio) Consultado el 17 de junio de 2025 de

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Source link