Hay fotos y videos de una crueldad imposible de olvidar. Por lo tanto, hay trabajadores de empresas subcontratadas que se encargan de filtrarlos manualmente, pero pagan un alto precio psicológico.
La gran mayoría de los usuarios de Facebook e Instagram no llegan a ver contenido extremadamente inquietante, como tortura, abuso de menores o asesinatos. Esto es responsable del contenido digital llamado SO o limpia a los moderadores, que se encargan de la detección de imágenes, así como de eliminar fotos y videos de redes sociales.
Haga clic aquí para unirse al canal de WhatsApp de Panorama Diario y siempre estar informado
Estos moderadores generalmente son utilizados por subcontratistas en países del Sur Global. Es un trabajo extremadamente estresante desde el punto de vista mental, que ha sido criticado durante años.
Le recomendamos: ¿Cómo eliminar la herramienta objetivo de WhatsApp?
Ambos objetivos, propietario de Facebook e Instagram, como sus subcontratistas en África enfrentan constantemente nuevas demandas. Según el periódico británico The Guardian, las acciones judiciales se están preparando contra Majorel, una compañía subcontratada por objetivo.
¿Falta de apoyo psicológico?
Las personas que moderaron los contenidos para Majorel en Accra, capital de Ghana, han asegurado al periódico británico el guardián que sufren depresión, ansiedad, insomnio y adicción a las drogas como consecuencia directa de su trabajo. Además, denuncian que el apoyo psicológico que se les ofrece es inapropiado.
TeleperFormance, propietario de Majorel, niega estas acusaciones. Según The Guardian, esta compañía utiliza sus propios profesionales de la salud mental para tratar a sus empleados, que están registrados en la autoridad de supervisión local. Teleperfomance no respondió a una consulta realizada por DW. Mientras tanto, el británico Foxglove Oenegé está preparando una demanda contra él.
Y no es el primero de este tipo: hace aproximadamente dos años, los ex moderadores de Facebook en Nairobi, la capital de Kenia, presentó una demanda contra Meta y las Sama Proveier Companies (Samasource) y Majorel. Participaron activamente en sus sindicatos, debido a sus condiciones de trabajo y, en su opinión, fueron despedidos ilegalmente. Posteriormente, según la agencia de noticias de Reuters, Majorel no los contrató.
En septiembre de 2024, un tribunal confirmó que el objetivo podría ser demandado en Kenia y, desde entonces, se están llevando a cabo otros procedimientos judiciales y de mediación.
Muchas horas al día antes del horror
Para el abogado Mercy Mutemi, quien representó a los demandantes en el juicio de Kenia, estos procesos involucran una “llamada de atención” para que las empresas de tecnología presten más atención a las violaciones de los derechos humanos, como ha declarado Reuters.
Le recomendamos: exigen un objetivo para preferir trabajadores extranjeros antes de los estadounidenses.
Aunque firmar cláusulas de confidencialidad es común, algunos empleados antiguos ahora hablan sobre cómo se sentían en el trabajo. Según la plataforma netzpolitik.org, los moderadores de un subcontratista tuvieron que ver contenido inquietante entre ocho y diez horas al día, incluidas escenas de crueldad y ejecuciones animales.
Un viejo empleado de otra compañía subcontratista dijo: “El sistema no nos permite saltar (imágenes) … Tenemos que verlos durante al menos 15 segundos”. En una entrevista con The Guardian, la mitad que realizó la investigación junto con la Oficina Británica de Periodismo de Investigación, confesó que se sentía “menos humano”.
Otro viejo empleado, que ahora participa en la organización que se asciende a los trabajadores tecnológicos africanos, dijo a The Guardian que estaba sujeto a una gran presión. “No puedes parar cuando ves algo traumático. No puedes parar para proteger tu salud mental”. Y él dice que ahora la situación se ha deteriorado aún más, que los empleados ven los videos a una velocidad dos o tres veces más alta de lo normal, en varias pantallas al mismo tiempo.
El Oenegé FoxGlove también informa en su sitio web que los empleados deben pedir permiso para levantarse de sus pantallas, algo que se puede negar. La moderación es especialmente difícil para las personas de las regiones de conflictos, ya que siempre temen reconocer a familiares y amigos en las imágenes truculentas. DW no ha podido verificar si estas acusaciones están justificadas.
Una agencia de comunicación a cargo de Meta ha asegurado a DW que este gigante estadounidense ha alcanzado acuerdos contractuales con sus empresas asociadas, por lo que deben asegurarse de que los moderadores de contenido no solo reciban capacitación especializada, sino que también tengan acceso las 24 horas del día para el apoyo profesional y la atención médica. Además, están obligados a pagar los salarios más altos a sus empleados y se respeta el derecho de asociación.
Kenia y Filipinas, muy popular
No es accidente que muchos subcontratistas de grandes redes sociales se encuentren en los países en desarrollo. Los salarios suelen ser mucho más bajos que en los países occidentales, la protección laboral es más baja y el desempleo juvenil es alto. Además, los diferentes horarios permiten garantizar la moderación en todo momento.
“Grandes compañías de tecnología les gusta subcontratar obras importantes en África, pero estresantes. Lo hacen de manera colonial y explotadora”, dice la abogada Mercy Mutemi en una entrevista con netzpolitik.org. A finales de 2023, el abogado aludió a este tema diciendo: “Facebook y Sama están atrayendo a jóvenes talentosos, pero vulnerables e desprevenidos, Kenia y otros países africanos”.
Para los propios países, la subcontratación de los procesos comerciales también es un negocio lucrativo. En la primavera de 2024, el presidente de Kenia, William Ruto, anunció que expandiría la infraestructura para este tipo de reubicaciones. Aparentemente, su intención es crear un millón de nuevos empleos en los próximos cinco años.
Fuente: dw.com