Qué hay detrás de las restricciones y supresiones de contenido sobre Palestina en Instagram y Facebook
En estos meses miles de usuarios de Facebook e Instagram han denunciado censura de sus publicaciones, limitación del alcance de sus cuentas o incluso eliminación temporal de las mismas por difundir contenido relacionado con Palestina. El fotoperiodista palestino Motaz Azaiza, con 17 millones de seguidores en Instagram, es uno de los afectados. Criado en un campo de refugiados de la Franja de Gaza, trabajó allí hasta finales del pasado mes de enero. Calcula que el 40% de sus publicaciones han sido eliminadas o censuradas desde octubre de 2023. En ellas muestra fotografías y vídeos de la vida diaria en Gaza, lo que incluye escenas de desplazamientos forzados, hambre, enfermedades, masacres. Su cuenta fue suspendida en tres ocasiones.
Su caso no es el único. La organización Human Rights Watch ha denunciado una “censura sistemática y global” en Meta sobre contenidos relacionados con Palestina, incluidos aquellos que alertan de violaciones contra los derechos humanos de la población palestina. Algunos usuarios indican haber sufrido restricciones por mostrar información sobre las matanzas en la Franja de Gaza, criticar a Israel, pedir “un alto el fuego inmediato”, demandar “libertad para Palestina” o exigir el “fin del genocidio”, entre otros contenidos.
Era bastante obvio que las cuentas que hablaban de Palestina estaban siendo censuradas de forma inadecuada. Teníamos miles de casos
Un ingeniero denuncia sesgos en Meta
Hace unos meses, en la sede de Meta, un ingeniero con altas responsabilidades, encargado de evaluar la calidad de los filtros de integridad de Instagram, observó que muchos usuarios que publicaban sobre Palestina tenían contenidos suspendidos. Entre ellos, Moataz Azaiza. Un documental de AJ+ estrenado este martes relata cómo ese ingeniero -quien no muestra su rostro ni su identidad para proteger su carrera- se dio cuenta de que había cuentas, como la del propio Moataz, clasificadas como contenedoras de “actividad sexual o desnudo” y “pornográficas”, lo que limitó significativamente el alcance de sus contenidos.
“Calificar imágenes de niños heridos y de muertos como actividad sexual o pornográficos me parece profundamente ofensivo”, relata. En su denuncia indica que, en el caso de cuentas relacionadas con Palestina, Meta optó por desestimar la corrección ante esos errores de clasificación.
“Era bastante obvio que las cuentas que hablaban de Palestina estaban siendo censuradas de forma inadecuada. Teníamos miles de casos”, explica durante su entrevista, en la que afirma haber sido testigo de la supresión de estos contenidos en tiempo real. Su tarea consistía en localizar errores y subsanarlos, por lo que intentó modificar esas dinámicas. Poco después fue despedido. Ahora ha demandado a la compañía. Considera que su despido se debió “a motivos raciales y étnicos. No podían poner algo así como 'demasiado palestino' como razón”, afirma. “Tras el 7-O,
Un doble rasero
Tras la invasión de territorio ucraniano por el Ejército ruso en 2022, Meta relajó algunas de sus reglas de “discurso de odio” para los usuarios en Ucrania, incluso permitiendo mensajes que llamaban a la violencia contra “los invasores rusos”. Así lo explicó la propia compañía en un comunicado en marzo de ese mismo año: “Hemos permitido temporalmente formas de expresión política que normalmente violarían nuestras reglas, como discursos violentos, como ”muerte a los invasores rusos“.
Meta llama a estas excepciones “tolerancia para noticias importantes”. La compañía afirmó que estos ajustes eran necesarios para asegurar la libertad de expresión de los ucranianos contra Putin y las fuerzas rusas. Incluso permitió temporalmente elogios a un grupo neonazi ucraniano. Los exempleados entrevistados en el documental de AJ+ afirman que Meta “no ha ofrecido tales exenciones a los usuarios en el caso de Gaza” y que, de hecho, aplicó los filtros más estrictos a cualquier publicación procedente específicamente de Palestina.
La palabra terrorista fue insertada en la traducción de algunas biografías de usuarios palestinos en Instagram
Los primeros sesgos detectados
Tras los ataques de Hamás del 7 de octubre de 2023 y el inicio de la masacre en Gaza, estos sesgos generaron varios problemas. Uno involucró a WhatsApp, la aplicación global de mensajería, también propiedad de Meta. Cuando los usuarios realizaban una búsqueda, introduciendo las palabras 'palestino', 'Palestina' o 'niño musumán palestino', la inteligencia artificial de WhatsApp ofrecía, en muchos casos, imágenes de niños sosteniendo armas. Cuando la búsqueda se hacía con las palabras 'niño israelí', 'niño israelí judío' o incluso 'Ejército israelí', en las imágenes que aparecían nadie empuñaba un arma.
El otro incidente tuvo que ver con Instagram y su traducción automática del árabe al inglés. La palabra terrorista fue insertada en la traducción de algunas biografías de usuarios palestinos. Meta se disculpó en ambos casos y dijo que fueron causados por fallos técnicos. “Podrías decir que el algoritmo de la inteligencia artificial o el modelo de aprendizaje automático cometió un error, pero si sabes que existe el sesgo y evitas que tus propios empleados lo arreglen, es muy difícil para ti declarar que fue un error”, relata a AJ+ el exingeniero de Meta, que ahora ha presentado una demanda contra la compañía.
Ya en 2021, durante las dos semanas de ofensiva militar de Israel en Gaza y en Jerusalén Este, Meta fue acusado de esconder las voces propalestinas. Un año después, un informe encargado por la propia compañía concluyó que Meta “ha eliminado y suprimido injustamente contenido de palestinos y sus partidarios, incluso sobre abusos contra los derechos humanos”.
Fui despedida por mi defensa de Palestina, denuncia una analista de datos extrabajadora en Meta
Denuncias de otros antiguos empleados
Saima Akhter es otra exempleada de Meta. Trabajó allí durante tres años como analista de datos, hasta que fue despedida, tras quejarse internamente en la empresa -y también a través de sus propias redes sociales- del sesgo aplicado. Hizo circular una carta interna dirigida a la dirección, en la que exponía sus preocupaciones, incluida la censura de usuarios en las redes. Alrededor de 450 compañeros firmaron la carta en menos de un día.
En el documental de AJ+ Akhter denuncia que los directivos de la compañía se enteraron, borraron la carta, la echaron de todos los sistemas de comunicación interna y la sometieron a una investigación durante dos meses, sin explicarle qué norma había violado exactamente. “Después descubrí que también estaban revisando las bandejas de entrada e incluso las papeleras de Google Drive de empleados, para eliminar cualquier copia de la carta”, señala. “Fui despedida por mi defensa de Palestina”.
Ramzy, otro antiguo empleado, analista de datos, denuncia que en Meta, “cuando nuestra comunidad trata de llorar junta somos censurados, y nos dicen que estos temas son disruptivos”. Los trabajadores que han querido organizar vigilias por los familiares muertos en Gaza han tenido que hacerlas fuera de la empresa, “ya que no se permite hablar de Palestina en el trabajo”. El tío abuelo de Ramzy falleció recientemente en el norte de Gaza, como consecuencia de la falta de alimentos y medicinas.
“Ha habido muchas declaraciones de la dirección de la compañía ofreciendo sus condolencias a los israelíes y a sus familias tras el 7-O, pero para nosotros, los palestinos, es como si no existiéramos”, lamenta en el documental. “Ha sido muy difícil ir a trabajar todos los días, he estado deprimido y con ansiedad”. Cuando la periodista Dena Takruri preguntó a Meta por la diferencia de trato, un portavoz contestó: “Declinamos comentar”.
Otro antiguo trabajador, Mohamed El Dirany, ingeniero de software, comenta que en Meta “Ucrania fue apoyada al cien por cien todo el tiempo, también el movimiento Black Lives Matter, y fue genial que hablaran de ello”. “Pero cuando se trataba de Palestina se cerraba inmediatamente para todos nosotros”, añade.
Eliminación de mensajes en la comunicación entre empleados
El documental también aborda la “aparente eliminación sistemática de mensajes en Workplace”, la plataforma interna en la que se comunican los casi 70.000 empleados de Meta. “Muchos escribíamos mensajes emotivos sobre la belleza y la cultura palestina. Todos eliminados. Cuando solo intentábamos mencionar la crisis humanitaria en Gaza, eliminado”, denuncia Saima.
El equipo CEE -Expectativas de Participación Comunitaria- se encarga de monitorear los contenidos de comunicación interna de la compañía. Prohíbe la discusión de temas controvertidos en el trabajo. Considera polémicos asuntos como el aborto, las guerras o movimientos de justicia racial. Saima Akhter relata que entre los comentarios eliminados hubo uno que recordaba la Nakba, la expulsión de más de 700.000 palestinos entre 1947 y 1948.
También suprimieron publicaciones con sandías, símbolo propalestino, por la coincidencia de colores con la bandera. Otros comentarios eliminados estaban relacionados con comida, danza u olivos palestinos. Las publicaciones que cuestionaban esas supresiones también se vieron afectadas.
“Si Meta tiene tanta dificultad para moderar el contenido de los comentarios de los empleados y lo hace de una manera que creo que es sesgada ¿cómo puedo confiar en que modere de forma adecuada el contenido para miles de millones de usuarios?”, se pregunta en el documental la analista de datos.
El director de Seguridad de la Información de Meta sirvió en la Unidad 8200, la elite de la inteligencia cibernética del Ejército israelí
Vínculos de algunos directivos con el Ejército o el Gobierno israelí
Paul Biggar, emprendedor tecnológico, integrante de Tech for Palestine –Tecnología para Palestina– lleva tiempo analizando los enfoques de las empresas tecnológicas ante la cuestión palestina. Denuncia que muchas “han estado despidiendo durante años a personas simpatizantes de la causa” y señala que varios directivos tienen vínculos con Israel.
El director de Seguridad de la Información de Meta, sirvió en la Unidad 8200, la elite de la inteligencia cibernética del Ejército israelí, conocida por espiar a los palestinos bajo ocupación. Antes de su cargo actual fue vicepresidente del departamento de Gestión del Producto, donde ayudó a construir las herramientas de moderación de contenido para Facebook. Rosen tiene su base en Tel Aviv, donde Meta cuenta con 900 empleados y varias oficinas.
“Hay un canal desde el Ejército israelí hacia el sector de la tecnología”, apunta Biggar. “Alguien que estuvo en el Ejército israelí está decidiendo si su contenido sobre Palestina puede ser mostrado a la gente”. El documental de AJ+ analiza las biografías de docenas de empleados de Meta que han revelado públicamente haber trabajado en el pasado para la Unidad 8200 del Ejército israelí, muchos justo antes de su trabajo actual.
“La tecnología decide lo que podemos ver y lo que no podemos ver. Meta decide lo que es visible en Instagram. Cualquiera que esté usando las grandes plataformas está usando plataformas influenciadas por la ideología israelí ”, indica Biggar.
Alguien que estuvo en el Ejército israelí está decidiendo si su contenido sobre Palestina puede ser mostrado a la gente
En 2015 Israel formó la Unidad Cibernética Israelí, una agencia que envía solicitudes a las empresas de redes sociales para eliminar contenido que denuncia como incitación a la violencia. En un periodo de cinco semanas después del 7 de octubre de 2023 esa agencia emitió 9.500 solicitudes de eliminación a plataformas de redes sociales. Estas empresas cumplieron y eliminaron el contenido el 94% de las veces. El 60% de esas solicitudes fueron a Meta.
Jordana Cutler es la directora de políticas públicas de Facebook para Israel y la Diáspora judía, un puesto que no tiene contraparte palestina. Anteriormente fue asesora del primer ministro Benjamin Netanyahu -entre 2009 y 2013- y dijo esto sobre su trabajo en Meta en 2020: “Dentro de la compañía, parte de mi trabajo es ser representante de la gente de aquí en Israel, la voz del Gobierno [israelí] para sus preocupaciones dentro de nuestra compañía. Tengo una oportunidad de realmente influenciar en la manera en la que vemos la política”.
Otra de las cuestiones que aborda el documental es el uso por Israel de la inteligencia artificial para generar objetivos a asesinar, como reveló la publicación israelí +972 Magazine hace unos meses. Algunas investigaciones apuntan que una de las fuentes que se estarían usando para señalar a personas como posibles objetivos a disparar es si están en un grupo de WhatsApp con alguien que sea sospechoso de ser combatiente. Israel no ha confirmado este dato. “Cuando miremos dentro de veinte años el genocidio en Gaza y cómo la tecnología fue cómplice, todos nos preguntaremos cómo no hicimos más”, dice Paul Bigger en la parte final del documental.
Saima Akhter es una de las impulsoras, con ingenieros de otras compañías, de No Tech for Apartheid, una plataforma con la que intentan movilizar a los empleados y denunciar las censuras. El ingeniero que trabajó para Meta y que ahora ha denunciado a la compañía explica en el documental que su principal demanda es “que traten a todos los empleados con dignidad y respeto, incluidos los palestinos, árabes y musulmanes. Porque si no puedes tratar a todos tus empleados con respeto, no vas a tratar a todos tus usuarios con respeto”.
Los realizadores del documental afirman que sus fuentes dentro de Meta “nos dicen que sigue habiendo una sensación generalizada de supresión hacia los palestinos y sus aliados. A pesar de ello, muchos no se han desanimado y siguen abogando por la equidad, tanto internamente como en los productos y plataformas de la compañía”. Ante ello, el fotoperiodista Moataz Azaiza les deja un mensaje: “A estos empleados les digo que gracias por ser humanos, esto significa que están sacrificando su trabajo y su carrera, por sus creencias. Muchas gracias”.
DM
0