Noticias del mundo

La junta de supervisión de Meta pide a la compañía que investigue cómo los cambios de moderación de contenido podrían afectar los derechos humanos

La junta de supervisión de Meta está pidiendo a la compañía que evalúe cómo los cambios recientes en sus políticas de moderación de contenido podrían afectar los derechos humanos de algunos usuarios, incluidos los de la comunidad LGBTQ.

La junta de supervisión publicó 11 decisiones de casos durante la noche el miércoles, marcando los primeros casos en tener en cuenta los cambios de política y aplicación anunciados por la empresa matriz de Facebook e Instagram a principios de año.

“Nuestras decisiones señalan que se refiere a que los cambios en la política y la aplicación del 7 de enero de Meta se anunciaron apresuradamente, en una desviación del procedimiento regular, sin información pública compartida sobre qué, si alguna, la diligencia debida por los derechos humanos anteriores realizó la compañía”, escribió la junta en un comunicado.

El tablero señala específicamente la decisión de Meta de eliminar algunas protecciones LGBTQ de sus reglas de discurso de odio en medio de una revisión más amplia de prácticas de moderación de contenido. Según los cambios, Meta Now permite a los usuarios acusar a las personas LGBTQ de tener enfermedades mentales a pesar de prohibir dicho contenido.

“Permitimos acusaciones de enfermedad mental o anormalidad cuando se basan en el género o la orientación sexual, dado el discurso político y religioso sobre el transgénero y la homosexualidad”, dice ahora la política de Meta.

“A medida que los cambios se están implementando a nivel mundial, la Junta enfatiza que ahora es esencial que meta identifique y aborde impactos adversos en los derechos humanos que pueden resultar de ellos”, escribió la junta.

Esto incluye investigar los posibles efectos negativos en las naciones mayoritarias globales, usuarios LGBTQ, menores e inmigrantes, según el comunicado. La junta recomendó meta actualizarlo sobre su progreso cada seis meses e informar sus hallazgos públicamente “muy pronto”.

Los 11 casos revisados ​​por la Junta relacionados con los problemas de libertad de expresión y la Junta señaló que tiene un “umbral alto” para restringir el discurso bajo un marco internacional de derechos humanos.

En dos casos relacionados con los videos de debate de identidad de género, por ejemplo, la junta confirmó la decisión de Meta de permitir dos publicaciones sobre el acceso de las personas transgénero a los baños y la participación en eventos deportivos en los Estados Unidos.

“A pesar de la naturaleza intencionalmente provocativa de los puestos, que las personas trans identificables de manera identificable de una manera que muchos encontrarían ofensivas, la mayoría de la junta encontró que se relacionaban con asuntos de preocupación pública y no incitarían violencia o discriminación probable e inminente”, escribió la junta.

La Junta también recomendó que Meta mejore su aplicación contra las políticas de acoso y acoso, incluidas las reglas que requieren que los usuarios se autoinformen el contenido.

El CEO de Meta, Mark Zuckerberg, describió los cambios en enero como un esfuerzo para “volver a nuestras raíces y concentrarse en reducir los errores, simplificar nuestras políticas y restaurar la libre expresión”.

Al hacerlo, también anunció la eliminación de Meta de su programa de verificación de hechos. El sistema fue reemplazado por un proceso basado en la comunidad llamado Community Notes que se basa en los usuarios para enviar notas o correcciones a publicaciones que son potencialmente engañosas o carecen de contexto.

El programa de verificación de hechos terminó oficialmente en los EE. UU. A principios de este mes y Meta comenzó a probar la función de Notas de la Comunidad el mes pasado. Utilizó el algoritmo de código abierto de X para el sistema de calificación que determina si se publican las notas.

La junta recomendó meta “evaluar continuamente la efectividad de las notas comunitarias en comparación con la verificación de hechos de terceros, particularmente en situaciones en las que la rápida propagación de información falsa crea riesgos para la seguridad pública”.

Durante años, Meta también ha utilizado la tecnología de inteligencia artificial para detectar y eliminar de manera proactiva la violación del contenido antes de que se informa. La junta dijo que Meta también debería evaluar si reducir la dependencia de la tecnología automática puede tener impactos en todo el mundo, especialmente en países que enfrentan la crisis.

La junta se realiza independientemente de Meta y financia por una subvención proporcionada por la Compañía. Puede ofrecer recomendaciones de políticas de no vinculación, que si se adopta, pueden tener impactos de gran alcance para las plataformas de redes sociales de la compañía.

Back to top button