Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
Entrevista

El abogado de los moderadores de Facebook: “Muchos han tenido intentos de suicidio”

El abogado Francesc Feliu, después de la entrevista con elDiario.es

Oriol Solé Altimira

Barcelona —
23 de enero de 2025 07:17 h

0

Cuando el abogado Francesc Feliu escuchó el testimonio de horrores que llegó a ver un moderador de Facebook, no se lo pudo creer. El goteo de trabajadores del centro de control de contenidos nocivos que la compañía tiene en la Torre Glòries de Barcelona, abierto en 2018, que acudían a su despacho con graves trastornos de salud le hizo comprender que se encontraba con un caso de una gravedad inédita.

Tras lograr varias victorias en los juzgados sociales, el letrado comanda la acusación de la primera causa penal abierta en Europa por los efectos devastadores en la salud mental de los moderadores. En esta entrevista, el letrado anticipa que interpuso la segunda querella de una trabajadora contra la compañía y que prepara una tercera acción legal.

¿Cómo era una jornada laboral de un moderador como el que representa?

Eran jornadas de ocho horas diarias con cinco minutos de descanso por hora, lo que llamaban el descanso digital obligatorio. A partir de aquí, empieza la discrepancia. Respecto a los casi 30 moderadores que yo represento, las ocho horas eran trabajo efectivo. Pero la empresa dice que de esas ocho horas, el trabajo efectivo moderando contenido eran entre cuatro horas y media y cinco horas. El resto, según su versión, correspondían a programas de salud y bienestar laboral, reuniones con el líder de equipo y para actualizarse respecto a las políticas de Facebook.

¿A qué tipo de imágenes estaban expuestos?

Depende. Algunos moderadores estaban vinculados a mercados con contenidos más agresivos. Por ejemplo, el mexicano y el brasileño eran, en la fecha de los hechos, los más violentos, mientras que los nórdicos presentaban un menor nivel de violencia. Los moderadores hablan de bandas contrapuestas que torturan a una rival y lo graban todo... Se ven muchas imágenes de este estilo. Además, está la cuestión de las promociones. A algunos moderadores los pasaban a lo que llaman high priority, que son un tipo de colas de vídeos cuyo contenido es exclusivamente violencia extrema: suicidios y terrorismo, básicamente.

Muchos de mis clientes estaban entre 2018, 2019 y 2020 en high priority. La empresa defiende que ese high priority se repartía entre los diferentes moderadores y que no se asignaba solo a unos. Pero lo que me dicen los moderadores es que sí se asignaba. En concreto, a los que tenían un mayor nivel de acierto previo a la hora de censurar contenido violento. Ese primer análisis estaba monitorizado y si el moderador tenía un nivel de acierto del 98% o 100%, lo promocionaban, pero no para cobrar más, sino para joderle la vida, porque iba a ver un contenido más delicado y sensible.

¿No había ningún tipo de formación para ello?

No había una formación real del trabajo efectivo. Ni para ser moderador de contenido genérico ni para el high priority. La formación que se daba al inicio era más teórica que real. En 2018 o 2019 les explicaban el tipo de contenido que podían llegar a ver, no se les decía de qué empresa se trataba. No sabían para quién iban a trabajar, aunque lo podían intuir, y cuando sabían que el cliente era Facebook, creían que no lo podían decir.

¿Por contrato?

El contrato no lo dice. Las cláusulas de confidencialidad, de forma genérica, no te permiten decir todo lo que ves y haces, con lo cual tampoco puedes decir para quién trabajas. Muchos de los empleados, que eran extranjeros, tenían mucho miedo de poder ir a un abogado para contarle toda la mierda que veían por miedo a las cláusulas. Eso es falso, evidentemente. Si vas a defender tus derechos a los juzgados no hay cláusula que valga, la haga Facebook o Google.

Facebook sabía lo que estar expuesto a estas imágenes provocaba

¿En esa formación había advertencia de las imágenes que verían?

Sí, les ponían algún tipo de contenido violento. Pero en una escala del 1 al 10 de lo que llegarían a ver, quizás era del tres. Así que la realidad superaba la ficción. En la fase de instrucción la empresa manifiesta que el contenido violento podía ser muchas veces anecdótico, cada dos o tres semanas. Esto lo han dicho en el juzgado. Pero lo que cuentan los moderadores es que eso no era así. De anecdótico no tenía nada; era la norma. Y tiene sentido, porque el moderador de contenido en Barcelona lo que ve son videos con denuncia previa. Por lo tanto, hay alguien que lo ha denunciado, sea un usuario o la inteligencia artificial que lo detecta. No llegaban bailes, o videos de gatos, nada de eso.

¿Cómo se lo han tomado sus clientes?

Se lo han tomado muy mal, como un insulto. Muchos han tenido intentos de suicidio. Un moderador de contenido ha tenido ingresos recurrentes en un centro psiquiátrico por intentos de suicidio. ¿Qué le vas a explicar a él?

¿Por contrato ofrecían algún tipo de ayuda psicológica?

Es el nivel de apoyo de lo que decían wellness [programas de salud y bienestar laboral]. Pero poca cosa. El servicio era totalmente insuficiente. Estaba formado por distintos psicólogos que no solo eran insuficientes, sino que no había suficiente seguimiento. A un moderador, un video le creó tal impacto visual que por el nivel de angustia se puso a gritar en medio de la Torre Glòries. Otro se estampó contra la pared. Fue a ver al psicólogo, tuvo 45 minutos, lo contó y, al acabar, regresó al trabajo. No hubo seguimiento. No sé ahora en 2025 cómo lo hacen, pero del 2018 al 2020, no lo había. Era un paripé.

¿Los cerca de 30 moderadores que representa usted, qué porcentaje son de planta?

Han llegado a ser de planta 2.500 personas. Pero muchos no reclaman. Son brasileños, mexicanos, franceses… Extranjeros que piensan que no pueden reclamar. El comité de empresa podría hacer mucho más de lo que hace. El comité dijo a Inspección de Trabajo que faltaban medidas de seguridad, que la empresa no hacía lo suficiente y que por eso había tantas bajas laborales. Pero luego en el juzgado un miembro del comité lo diluyó. Creo que no fue sincero con la realidad de la empresa, pero es la decisión que tomó.

¿Cree que Facebook, como empresa matriz, era consciente de esta realidad?

Consciente, no. Súperconsciente. Sabían que iban a generar daños psicológicos. En 2018 en Estados Unidos ya tuvieron un procedimiento legal con centenares de moderadores y llegaron a un acuerdo económico. En Barcelona aterrizaron coincidiendo con esas reclamaciones y, por lo tanto, sabían que el moderador se expone a riesgos psicológicos. Y hablamos de Barcelona, pero podríamos estar hablando de Kenya, donde también pasa. Nadie en el mundo está capacitado para absorber tal nivel de violencia de una forma continua. Eso crea daños psicológicos. Facebook sabía lo que estar expuesto a estas imágenes provocaba.

Nadie en el mundo está capacitado para absorber tal nivel de violencia de una forma continua

¿Las enfermedades y trastornos causados son siempre los mismos?

Hay un patrón. La gran mayoría tiene síndrome de estrés postraumático. Otros han desarrollado un trastorno bipolar traumático, agorafobia, ansiedad recurrente… La gran mayoría tiene miedo a salir a la calle y, de hecho, hemos propuesto que algunos declaren ante el juez por videoconferencia porque no pueden salir. Me han llegado a explicar barbaridades que no era consciente que se podían llegar a hacer. Son cosas muy perversas.

¿Había visto alguna vez en su carrera como abogado una afectación de esta intensidad de un trabajo en la salud mental?

De forma genérica no, porque no ha habido otro colectivo de trabajadores tan expuesto. Haber llevado otros temas de salud laboral me ha permitido concluir que no se termina de dar a la salud mental la importancia que tiene. Hay incluso cierta incomprensión y no se reconocen incapacidades solo por un trastorno mental o una depresión recurrente. La Seguridad Social no las concede, pero sí está reconociendo que las incapacidades temporales son por accidente laboral y no por enfermedad común.

¿Qué elementos le permitieron pasar a la vía penal y no quedarse en un pleito laboral?

Cuando empecé con este caso, yo tampoco era consciente de su envergadura. Mi primer cliente era joven, tenía 23 años y tenía tal agorafobia y estrés postraumático que no podía salir a la calle. Él me comentó que compañeros suyos estaban igual y vi que el tema era muy grave. Vi que por culpa de Facebook hay una generación de gente enferma.

La gravedad del asunto hacía que no pudiéramos quedarnos en la jurisdicción laboral. Debíamos hacer el salto a la penal. Lo que les ha pasado a los moderadores de contenidos no tiene comparación con otras personas. La salud mental y emocional es clave en todos los trabajos y es invisible: un empleado puede ir muy bien vestido y suicidarse al día siguiente. Sin salud mental, no funcionas.

Por ahora, la empresa investigada es la subcontrata de Meta en España. ¿Cómo se podría conseguir la imputación de Facebook?

Inicialmente, pedimos la imputación de Facebook Spain S.L., pero no se admitió porque la empresa alegó que solo se dedicaba a la publicidad no a la moderación. Nos remitieron a la filial en Irlanda y no recurrimos. Ahora hemos pedido la ampliación de la causa a Meta, que nos fue denegada por el juzgado de instrucción, pero hemos recurrido ante la Audiencia de Barcelona. Nosotros creemos, porque tenemos pruebas, que es Meta (Facebook) quien marca las condiciones de trabajo, el porcentaje de aciertos del 98% de los moderadores y el resto de parámetros que provocan el daño a la salud. Nuestro objetivo es que Meta pueda ser parte del proceso penal, porque son ellos los que marcan las directrices.

Las grandes tecnológicas prefieren el negocio a la salud mental

¿Desde el inicio de los procesos legales, la empresa ha hecho algún cambio en prevención de riesgos laborales y atención a los moderadores afectados?

Ha habido algunos cambios en su política interna. Parte del volumen de moderación y de contenido violento ha bajado. Los psicólogos también suben a las plantas a hablar con los moderadores, ya no son ellos los que tienen que bajar a hablar con ellos. Son algunos cambios que valoramos positivamente porque tampoco podemos pretender que Meta y Facebook desaparezcan. Las redes sociales han venido para quedarse, pero queremos que cambien.

¿Qué cambios a nivel de empresa tendrían que realizarse? ¿Y de normativa general laboral?

La empresa tendría que reducir la exposición a imágenes y textos violentos a la que están sometidos los moderadores y llevar a cabo una evaluación real de riesgos psicosociales. Además, tendría que incluir mucho más tiempo de descanso y no hacer jornadas partidas y rotativas de mañana, tarde y noche. Esto altera el sueño y el estado anímico y hace más susceptibles las afectaciones en la salud mental.

A nivel general, hay que ir mucho más allá de la normativa laboral, porque son contenidos que también pueden afectar a los usuarios, y también hay que protegerlos, en especial a los menores de edad. Es una locura que los menores de 13 años pueden hacerse un perfil de Instagram o Tiktok. Hay un proyecto de ley para pasar de los 13 a los 16 años, pero todavía no está en vigor. Igualmente, a las redes sociales no les interesa, y más a Tiktok, que es la reina entre los adolescentes. Si los menores no pueden entrar en las redes, las empresas obtienen menos datos y menos ingresos.

¿Usted sería partidario de prohibir las redes sociales a menores de 16 años?

¡Como mínimo! Estamos ante el quid de la cuestión: el negocio de las redes sociales. A estas grandes empresas tecnológicas les importa bastante poco la salud mental, prefieren el negocio. A mí un moderador de contenido me ha dicho que los padres de adolescentes que les dejan acceso sin límites a las redes sociales no saben los peligros a los que se exponen.

¿El cambio anunciado por Facebook para eliminar filtros puede tener repercusiones negativas en los moderadores?

Vamos a peor. Para los moderadores, el nivel de violencia al que están expuestos subirá. No solo de imágenes o vídeos, también de textos. A nivel de usuario, todavía será peor. No sé qué está haciendo Europa.

Etiquetas
stats