Sandra González-Bailón: “Las plataformas están ejerciendo una función editorial en la oscuridad absoluta”
Las redes sociales son hoy parte de las rutinas de casi el 70% de los argentinos. A través de ellas conversamos, miramos noticias, novedades de conocidos, consejos de influencers, spots políticos, entre muchos otros contenidos que circulan con la velocidad del scroll. Esto, que en una primera mirada podría parecer inofensivo o pasatista, es el foco de interés de investigadores y especialistas que vienen advirtiendo sobre las consecuencias que las dinámicas del algoritmo pueden tener sobre los procesos electorales, la polarización política, la protección de datos personales, la difusión de desinformaciones, la agudización de la violencia en línea, entre muchos otros aspectos centrales para el desarrollo de las democracias contemporáneas.
Para conversar sobre estos fenómenos, elDiarioAR entrevistó a Sandra González-Bailón, profesora de Comunicación en la Annenberg School for Communication y directora del Center for Information Networks and Democracy (CIND) de la Universidad de Pensilvania. Desde hace más de una década, González-Bailón se dedica al análisis de las redes sociales digitales combinando las ciencias sociales computacionales y la comunicación política.
Invitada por el Diploma en Medios y Redes en Tiempos de Polarización que organizó el Área de Medios, Discursos y Política de la Escuela de Política y Gobierno de la Universidad Nacional de San Martín (UNSAM) con el apoyo de la Embajada de Estados Unidos en Argentina, dio la conferencia “Asimetrías en las dinámicas de polarización en red”, donde buscó responder la pregunta acerca de si la polarización en las redes y los medios es causa o consecuencia de la polarización social.
Sus últimas investigaciones se desarrollaron a partir de un acuerdo con la empresa Meta, que le permitió a ella y a sus colegas acceder a los datos agregados de 208 millones de usuarios estadounidenses de Facebook durante las elecciones presidenciales de 2020 en las que Joe Biden venció a Donald Trump. Del análisis de esa información surgió una serie de hallazgos que revelan de qué manera circula la desinformación y cómo las prácticas de moderación inciden en la difusión de contenidos en la red.
–¿Cuánto colabora la dinámica de las redes sociales digitales con los procesos de polarización política?
–Las redes sociales han facilitado que escojamos fuentes alineadas con lo que ya pensamos, lo que refuerza nuestros propios sesgos en lugar de fomentar una diversidad informativa, como se esperaría en una democracia epistémica. Y digo democracia epistémica porque, así entendida, supone que deberíamos consumir información diversa que nos ayude a pensar mejor como ciudadanos. En cambio, la dinámica de las redes colabora con la autoselección de fuentes porque ya sabemos que nos van a repetir lo que queremos escuchar. También incide un componente sociológico de formación de grupos: “tú estás conmigo o contra mí”, que refuerza las dinámicas de antagonismo y división, y un montón de otros factores de carácter sociológico y psicológico sobre los que estas redes influyen. Por ejemplo, el hecho de que, por la estructura de incentivos de estas plataformas, suelen ser unos pocos con opiniones más extremas o radicales los que acaban adoptando la voz cantante. Esto genera la ilusión de que todo el mundo está constantemente en una batalla campal. Entonces, no es que aquello que sucede en las redes no sea real porque, de hecho, lo es en sus consecuencias y esas consecuencias suelen ser negativas para la democracia. Pero es una distorsión: lo que ves en las redes es un reflejo deformado que no siempre se corresponde con la realidad.
–En el trabajo que publicaron en la revista Science concluyen que el 97% de la desinformación es consumida por usuarios conservadores. ¿Tienen alguna hipótesis que lo explique?
–Los datos que utilizamos para ese trabajo incluyen todo lo que circuló en la plataforma durante las elecciones de 2020 en Estados Unidos y tenemos los datos agregados al nivel de las noticias, es decir, aquellos posteos que tenían una URL que dirigía a un sitio web. Por eso sabemos qué porcentaje de quienes han consumido noticias calificadas como falsas (por la red de verificadoras de contenidos) son liberales y qué porcentaje son conservadores. Entonces, el 97% de las noticias falsas son consumidas por conservadores, pero cada uno de estos conservadores puede ser muy distinto al otro en términos de qué otras cosas están consumiendo y eso limita el tipo de conclusiones que podemos sacar de los mecanismos. Pero si lo ponemos en conjunto con otras piezas del puzzle de otros artículos que han publicado otros investigadores o con otras fuentes de datos, vemos que las noticias falsas suelen apelar a posicionamientos ideológicos o afectivos que resuenan más con audiencias conservadoras. Cuanto más al extremo del espectro ideológico te vas, menor es la cantidad de gente (alrededor del 1%) y mayor el consumo de este tipo de contenido. A la mayoría de los usuarios de Facebook no les importa nada de esto.
–¿Cómo afectan estas dinámicas al desarrollo de las democracias?
–Antes decía lo de la democracia epistémica porque es verdad que, sobre todo cuando hablamos de periodismo y del papel del periodismo en la democracia, se pone mucho énfasis en el conocimiento. Y una democracia no es solo esto; también es acción. Cuando empecé a interesarme por las redes sociales mientras hacía mi tesis, lo que me llevó a estudiar estos temas fue la manera en la que las redes facilitan la acción colectiva, el hecho de coordinar acciones y movilizar una masa crítica como herramienta de cambio social. Claro, esto era entre 2008 y 2011, cuando empiezan a suceder estos fenómenos de protesta en países donde no existía la libertad de prensa, como Irán, Turquía o lo que pasó en la primavera árabe. Entonces, las redes eran espacios de deliberación que aportaban este dominio público de conversación que no se habría podido abrir de otra manera. Una cosa que siempre menciono cuando hablo de las protestas de Gezi Park en 2013 es que en el momento en el que había una batalla campal en la plaza y todo el mundo lo estaba observando en tiempo real por Twitter, la televisión nacional estaba emitiendo un documental sobre pingüinos. Entonces, volviendo a la pregunta anterior, las redes hoy en día contribuyen a dinámicas de conflicto y de polarización pero no porque sea lo único que puedan hacer, sino porque en este momento es lo que se ha consolidado.
–¿A qué creés que obedece el desplazamiento entre la potencialidad de las redes como herramienta de acción colectiva y su desarrollo como catalizadoras de procesos de polarización?
–Esa es la pregunta que estoy intentando responder: este cambio de péndulo de un lado al otro. Es algo que sucede con todas las tecnologías, si se toma una visión más histórica. Cuando escribía mi primer libro, estuve leyendo bastante sobre cómo se hablaba del telégrafo a finales de 1800 o principios de 1900. Era súper curioso, porque la manera en la que los periodistas de aquella época hablaban del telégrafo era idéntica, tanto en términos de alabar esa tecnología como una fuerza transformadora, como de criticarla por erosionar nociones de privacidad. Me chocó un montón ver que las mismas palabras y analogías que se usaban para el telégrafo se usaron para internet luego y para las plataformas después.
Entonces, no sé si hay una sola causa que nos ayude a explicar por qué el péndulo ha ido de un lado al otro. Sí sé que hay una cierta recurrencia en la historia cuando surgen nuevas revoluciones tecnológicas. Sí sé también que estas tecnologías han evolucionado, se ha consolidado la economía política. Lo que ha hecho Elon Musk, por ejemplo, ha sido fundamental. De repente un millonario que tiene intereses corporativos muy determinados compra una plataforma de comunicación global. Eso no es aleatorio. Esa es una decisión intencional para controlar unos mecanismos muy prominentes por donde circula información política y no sólo política, también de negocios.
Hoy en día los algoritmos son mucho mejores que hace 15 o 20 años porque la ciencia, la investigación y el hardware han evolucionado. ¿Qué significa esto? Que los algoritmos se pueden personalizar todavía más. Este conjunto de cosas ha hecho que se consolide una dinámica que dialoga con lo que está pasando en el mundo de la política, el auge de los populismos, el auge de la desigualdad social, el conflicto.
–¿Podríamos decir entonces que la polarización es más rentable que la acción colectiva?
–Absolutamente. Yo creo que es más fácil controlar los mecanismos que pueden aumentar esa polarización que controlar redes descentralizadas de coordinación de acción colectiva. Tecnológicamente hablando, es mucho más fácil controlar estos sistemas algorítmicos que van a determinar qué adquiere más visibilidad en la red y se puede monetizar mucho más. No digo que en un primer momento fuera intencional. Yo creo que hay muchas de estas cosas que son consecuencias no intencionadas de decisiones técnicas. El algoritmo –y cuando digo el algoritmo me refiero a un conjunto de algoritmos– detecta las vulnerabilidades psicológicas que tenemos los humanos. De acuerdo con la teoría cognitiva, nuestro cerebro se organiza en dos sistemas. El sistema uno es la parte más primitiva, impulsiva. La parte dos es la racional y deliberativa, requiere de reflexión.
Las redes sociales están optimizadas para activar nuestra parte intuitiva. Respondemos de forma visceral y los algoritmos aprenden de eso. Los algoritmos no piensan, no tienen la agencia que se les suele atribuir. Estos sistemas automatizados lo que ven es que, cuando alguien publica un mensaje que invita a la rabia y al odio, eso genera más engagement que uno en el que invites a la cordialidad. Entonces, el algoritmo acabará reforzando ese tipo de mensaje. Los creadores de contenidos humanos se dan cuenta de que eso genera más interacción, entonces entran al carro. El clickbait responde a eso también. El fenómeno es algorítmico, pero también es social, es nuestra psicología y nuestra sociología.
–¿Creés que la derecha radical está sobredimensionada en las redes?
–Hay una ola reaccionaria que suele suceder cuando uno empuja hacia una dirección y estamos en ese momento ahora, que también se manifiesta en las redes. En el contexto estadounidense, y sospecho que también en el contexto argentino, español y en otros, hay una maquinaria intencional mediática de fuerzas que hacen que predominen estas noticias de talante conservador. No siempre por motivos ideológicos, también se pueden monetizar: hay casos de youtubers que llevan camisetas con una esvástica, no porque sean nazis o neonazis convencidos, sino porque eso genera el movimiento que necesitan para monetizar el tráfico a sus videos. Pero hay mayor propensión a utilizar esta maquinaria de un lado ideológico que del otro. Han sabido explotar mejor estas estructuras de incentivos a partir de usar titulares que no sean factuales o que apelen a esta visceralidad.
Por un lado, la oferta se ha optimizado para beneficiarse de las estructuras de incentivos que crean las plataformas; y, por otro, hay una demanda vinculada con el auge de los populismos, con la desafección de sectores muy grandes de la población, con la falta de confianza en instituciones como la prensa, el gobierno, el Estado, el sistema judicial. Todo esto hace que la gente también vaya buscando un tipo de noticia que le valide ese sentimiento, y se refuerza una cosa con la otra.
En el background de todo esto, las plataformas se limpian las manos diciendo: “nosotros no somos medios de comunicación, solamente somos conductores”, pero en realidad están tomando decisiones editoriales en la medida en que tienen estas políticas de moderación de contenidos de las que sabemos muy poco y simplemente están ejerciendo una función editorial en la oscuridad absoluta.
–¿Cómo ejercen concretamente esa función editorial?
–No sólo es el algoritmo y no sólo son las normas comunitarias: hay todo un conjunto de decisiones, algunas muy ad hoc, en un momento concreto y de las cuales no sabemos nada. De ahí el nombre “break the glass measures” (medidas para romper el vidrio o medidas extremas). Hemos aprendido acerca de estas medidas en el contexto de las elecciones de 2020 gracias a la investigación de periodistas como Jeff Horwitz, que trabaja en el Wall Street Journal.
A partir de lo que sucedió el 6 de enero del 2021 con el asalto al Capitolio, el Congreso designó un comité especial de investigación cuyo reporte se ha hecho público y afecta a Facebook y a varias plataformas. Se observa una línea temporal muy clara de medidas extremas. Gracias al trabajo de investigación de periodistas, pudimos evaluar con los datos empíricos que teníamos el impacto que estas medidas de moderación de contenidos tienen en el flujo de información. Literalmente crearon cortafuegos para evitar que fluyera la información. Estas medidas eran muchas y complementarias, y se iban aplicando poco a poco, como ir tocando botones en respuesta a lo que estaba pasando en el mundo.
Quiero enfatizar que Meta ya tenía ciertas medidas. Por ejemplo, si administrabas una página o un grupo que publicaba más de dos veces noticias que habían sido etiquetadas como falsas, la primera decisión era la degradación, hacerte menos visible; si persistías, te bloqueaban o te echaban de la plataforma, que es lo que pasó con Trump cuando ya sabían que no iba a ser presidente.
Cuando Biden ganó las elecciones, un conjunto de –en teoría– ciudadanos empezaron a crear páginas y grupos para organizarse en reacción contra lo que ellos percibían que había sido un robo de las elecciones, alentados por Trump. Se trató de la “‘stop the steal’ campaign” (campaña “paremos el robo”), una acción colectiva pero de la derecha, en este caso. Meta implementó un montón de medidas específicamente diseñadas para intentar frenar esto. Luego, relajaron esas medidas a fines de diciembre, que es cuando aumentó la circulación de desinformación. Y cuando se dieron cuenta de lo que estaba pasando el 6 de enero, empezaron a aplicar todas de forma urgente porque la cosa se iba de las manos otra vez. Las protestas que se organizaron y que acabaron con todos estos locos entrando en el Capitolio fueron organizadas desde Facebook. No tenemos datos de eso, pero estoy convencida.
De acuerdo con las cifras que tenemos, la desinformación tenía, en promedio, unos 50 millones de vistas dos meses antes y bajó hasta cero el día antes de las elecciones y eso no es orgánico. Entonces, por un lado dices: “qué bien que han eliminado toda la desinformación”; pero, por el lado contrario: menudo poder tiene una plataforma sin que nosotros tengamos la capacidad de evaluarlo.
Lo paradójico de todo esto es que hemos escrito este trabajo con datos que nos proveyeron en Facebook. Cuando pedimos específicamente esta información, nos dijeron que no podían dárnosla por motivos de seguridad. Pero pudimos evaluar de todos modos el impacto de estas medidas en el flujo de información porque podíamos rastrearlo a partir de los datos que ya teníamos y que inicialmente no íbamos a analizar al trasluz de esto. Entonces cuando nos dimos cuenta de que existían estas medidas, leímos a los periodistas, leímos el informe (elaborado por el Congreso estadounidense) y lo contrastamos todo.
–¿El acuerdo con Meta continúa?
–No. Pero no creo que sea por esto, simplemente es una gran inversión de dinero y de tiempo que no están dispuestos a seguir. Además, la transparencia le genera más problemas que seguir cerrando el acceso a los datos. Y, como el resto de las plataformas tampoco están compartiendo datos, nada los invita.
–¿En qué se diferencian la propagación de la viralización de contenidos?
–En los dos casos se están difundiendo contenidos y, quizás, en ambos un post fue compartido 100 veces. Pero cuando se propaga genera muchas reacciones inmediatas, que sería como una estrella gigante, y cuando se viraliza crece poco a poco a través de la red subyacente de amistades. En una propagación masiva, una cuenta, por ejemplo la página de la CNN, publica algo y 100 personas lo comparten al segundo, pero los amigos de esas personas no lo hacen. Entonces se queda ahí, como una piedra que lanzas al agua y hace una onda expansiva. Esta situación de difusión es de uno a muchos, está más en línea con lo que sucede en la comunicación de masas. Pero lo que es realmente viral -por analogía a cómo se difunden los virus biológicos- es que alguien publique algo, entonces dos amigos lo comparten, amigos de esos amigos que no están conectados con el primero lo comparten, y eso entonces se va difundiendo por la red.
–¿Existen diferencias entre los modos en que se difunden la información y la desinformación?
–Lo que encontramos es que cuando hablamos de información en general, lo que predomina en Facebook es la difusión masiva, el broadcasting, porque páginas y grupos tienen, por diseño, unas audiencias mucho más amplias y son mecanismos de difusión masiva. Esto es importante porque Facebook siempre dice: “nosotros no somos un medio”. ¡Sí lo sois! Porque además tenéis esta manera de difundir de forma masiva cualquier tipo de contenido. Pero cuando te fijas en el subgrupo de contenido que ha sido clasificado como desinformación, cambia la cosa: lo que predomina es la viralidad, o sea que va viajando poquito a poco por caminos estrechos, pero que acaban llegando a mucha gente. ¿Por qué importa esto? Porque determina la forma en la que luchas contra la desinformación. Entonces lo que vemos es que el hecho de que casi toda la información se difunda de forma masiva pero la desinformación se difunda de forma viral es una respuesta a las medidas de moderación de contenidos, porque la moderación de contenidos atacó fundamentalmente a páginas y grupos, que son mecanismos de difusión masiva, pero no a los usuarios por motivos de libertad de expresión y creó una brecha. En teoría, esto lo han solucionado. No lo sabemos, pero cambiaron su política de moderación de contenidos para que los usuarios de a pie también pudieran ser penalizados del mismo modo que las páginas y los grupos. En el momento en que analizamos esto en el 2020 había un agujero por el que se les colaba la desinformación.
–Esto genera muchas contradicciones en torno a la libertad de expresión.
–No es un problema fácil de solucionar. Es una fina línea y es una pendiente resbaladiza porque, ¿cómo regulas la libertad de expresión para que no decaiga en censura? Pero también es cierto que la autocensura es censura también. Entonces, si tú permites que en tu plataforma predomine la toxicidad, y estas campañas de harassment (acoso), de persecución a grupos vulnerables, termina resultando que por tu propia salud mental ya pasas de todo y no dices lo que te gustaría decir. Eso también es censura, pero no lo consideran como tal. Entonces, libertad de expresión sí, siempre y cuando no limiten la libertad de expresión de otra gente. Pero implementar eso en un sistema automatizado, porque es verdad que no se puede chequear todo manualmente, es un reto, no es fácil. Precisamente por eso necesitamos transparencia, necesitamos que intervengan actores externos a estas compañías. Es un poder inmenso que tienen para ejercer o no ejercer y, si no hay información acerca de cómo lo ejercen es un poder que no estás chequeando. Reconozco que es un problema que no tienen por qué resolver las plataformas on the road (en el camino), es un problema público, de convivencia pública, de regulación, de gobernanza, pero necesitamos esta independencia para poder acceder a esos datos porque si no, ¿en base a qué vamos a intentar regular esto? ¿En base a qué vamos a intentar solucionarlo?
–Cuando figuras como Trump o Milei se acercan a los dueños de las plataformas, parecería no haber incentivos para promover la moderación, sino todo lo contrario porque encuentran un canal por donde amplificar desinformaciones que muchas veces ellos mismos generan o colaboran en difundir.
–Desde luego, el papel que juegan las élites políticas es crucial. Es por eso que a veces nos pasamos atacando a las plataformas y, en realidad, el problema está en otro sitio. A Trump le echaron de Facebook, le echaron de Twitter, se montó su propia red social,Truth Social, que es un desastre económico. Evidentemente, es muy problemático que élites -que, por otro lado, han sido elegidas por la población- tengan esa plataforma, porque ahí no solamente estás regulando los discursos, estás regulando a líderes políticos que han sido elegidos, es otra categoría de dificultad. Y estas empresas, estas corporaciones, tienen sus propios intereses. Es muy problemático.
–¿Qué diferencias notás en el uso de las plataformas entre la primera presidencia de Trump y lo que está sucediendo hoy con la incorporación de Musk al gobierno?
–A mí me preocupa mucho, nos preocupa mucho, sobre todo por la falta de accountability, de responsabilidad. Es un tema muy delicado, porque en una democracia debemos aceptar el voto de la mayoría, aunque lo sea por el 2% como en el caso estadounidense, y tú no puedes regular el discurso político, tú no puedes regular a un Presidente. De hecho, a Trump le echaron de las plataformas una vez que ya estaba claro que no sería Presidente, lo cual hace que el problema sea todavía mayor, y por eso todo el mundo está soltando las alarmas. El papel que los medios tradicionales juegan también es esencial. Por ejemplo, cuando el New York Times escoge un titular donde utiliza eufemismos para referirse a lo que Trump está haciendo, que es mentir. Esto de decir “qué poco usual lo que Trump ha decidido ahora que está escogiendo su gabinete”. “Poco usual” no es el término adecuado. Está escogiendo a gente mediocre, que es lo que hacen los totalitarios.
Entonces, ya no estamos hablando de plataformas y de regular la moderación de contenidos, sino del auge de populismos que están bordeando el fascismo. El problema es inmenso y el periodismo es fundamental aquí como forma de presionar al poder. Pero otras instituciones democráticas también son esenciales y a las plataformas hay que seguir presionándolas para que no se conviertan en un brazo propagandístico de estos regímenes. En Europa se está intentando regular, pero creo que fue J. D. Vance (el vicepresidente electo de los Estados Unidos), quien ya insinuó que si multan a Elon Musk desde Bruselas o intentan regular sus actividades habrá contrapartida.
–¿Qué nuevos desafíos plantea Tik Tok, donde para predecir intereses de manera automatizada ya no importan las redes de relaciones sino el comportamiento de los usuarios?
–Tik Tok representa una nueva generación de redes sociales donde el comportamiento del usuario es más relevante que sus redes de relaciones. Facebook y Twitter dependían de las conexiones sociales para sus recomendaciones porque, como sabemos en sociología desde hace décadas, tus redes revelan un montón de cosas sobre ti, tus amigos se van a parecer mucho a ti.
Las técnicas de análisis de machine learning (aprendizaje de máquinas), que ahora se llama inteligencia artificial, han mejorado tanto que ya no hace falta explotar el contenido en red, sino que las recomendaciones se hacen a partir de tu comportamiento, o sea, del tiempo que pasas viendo ciertos videos y de lo que hace otra gente como tú. Y las recomendaciones que hace, por lo visto, funcionan muy bien. Realmente te dejan ahí enganchado porque saben ofrecerte, quizá no lo que más te interese o lo que más te convenga, pero sí lo que más tiempo te hace estar ahí. Además, el contexto geopolítico y la propiedad china de la plataforma añaden un nivel de complejidad, pues el algoritmo puede presentar cualquier contenido que considere relevante. Y eso es muy interesante también porque se rompen las fronteras entre lo global y lo local. Pero aun no he visto evidencia acerca de qué implicancias tiene esto, no he hecho ningún estudio de Tik Tok.
0