El foro 4chan ejemplifica mejor que cualquier otro cómo una parte del Internet estadounidense se ha transformado en un laberinto impenetrable de teorías de conspiración entrelazadas. De este foro surgió la paranoia colectiva de QAnon sobre supuestos pedófilos satánicos de Washington, así como muchas otras teorías que mezclan elementos de la realidad con hechos falsos para crear una masa de desinformación coherente pero engañosa. Una de esas maquinaciones es la del “Internet muerto”.
La teoría del “Internet muerto” sostiene que desde 2016 la inmensa mayoría del contenido que hay en la red es generado por bots y algoritmos automatizados. Según sus partidarios, las responsables de ello son las grandes tecnológicas, que de esta manera manipulan a la opinión pública y bloquean las interacciones de los humanos con otras personas reales.
La teoría circula desde 2018, coincidiendo con el estallido del escándalo de manipulación electoral de Cambridge Analytica. Sin embargo, su boom llegó en 2020 y 2021 de la mano de los confinamientos y la digitalización forzada por la pandemia. Creció y se desinfló paralelamente a la de QAnon, a medida que se relajaban las medidas de distanciamiento social y buena parte de sus aseveraciones se demostraban completamente infundadas.
En el caso de la teoría del Internet muerto, los expertos siempre tacharon de exageradas sus suposiciones sobre la automatización de la red. Sí, en las redes sociales hay un uso creciente de bots, pero atribuirles la mayoría de las interacciones se consideraba desmesurado. La teoría quedó así archivada como una entrada más en los anales de la cultura online. Hasta ahora.
Este 2024 la idea ha reflotado y no precisamente en apartados espacios digitales dados a la conspiranoia. Investigadores y expertos advierten que la amenaza del Internet muerto podría estar ahora acercándose a la realidad. Se apoyan en datos del informe de Imperva sobre actividad automatizada en Internet de 2024, que apunta que el tráfico online generado por fuentes no humanas se acerca ya al 50% del total.
“Los bots maliciosos, en particular, representan ya casi un tercio de todo el tráfico”, explica esta empresa de ciberseguridad propiedad de Thales Group, la gran multinacional francesa de electrónica. “Los bots maliciosos se han vuelto más avanzados y evasivos y ahora imitan el comportamiento humano de tal forma que resulta difícil detectarlos y prevenirlos”, detalla el informe: “Aprovechan la lógica empresarial en lugar de las vulnerabilidades técnicas, lo que les permite realizar una serie de actividades maliciosas, como el fraude en las transacciones, el web scraping y la recopilación de datos”.
La red sintética
El dato llega en un contexto en el que las herramientas de inteligencia artificial generativa han facilitado la creación de enormes cantidades de contenido con costes marginales. Esto está llenando Internet de textos que responden preguntas con o sin sentido, imágenes realistas que nunca sucedieron o falsificaciones inspiradoras que se comparten en redes. El fondo es lo de menos, ya que el objetivo es el de siempre: captar la atención del usuario.
Uno de los fenómenos más chocantes producidos por el contenido generado con IA se está dando en las comunidades anglosajonas de Facebook. La red social ha retocado su algoritmo para que recomiende más contenidos que no estén relacionados con los me gusta o los contactos del usuario, sino con aquello que genera más interacciones en la plataforma. Es lo que ha llevado al éxito a TikTok. “Ahora mismo, alrededor del 30% de las publicaciones de Facebook se realizan a través de nuestro sistema de recomendaciones de inteligencia artificial. Es el doble que en los dos últimos años”, reveló Mark Zuckerberg en la presentación de resultados de su compañía en el primer trimestre de este 2024.
El problema es que parte de los contenidos que está recomendando el algoritmo de Facebook son imágenes claramente generadas con IA que miles de cuentas están comentando sin, aparentemente, percatarse de que son artificiales. El ejemplo más viral hasta ahora son los 'jesucristo-gamba'. “Amen”, responden miles de perfiles sin mencionar lo perturbador de las representaciones de un Cristo con patas de crustáceo o gambas naciéndole del pecho.
Las publican páginas de Facebook que aparentan ser religiosas y que venían usando la IA para implantar la imagen de Jesús en paisajes, como playas o rocas. Su fusión con una gamba parece deberse a alucinaciones (como se conoce a las creaciones de la IA que no tienen sentido para las personas) ocurridas en el proceso de unión de la imagen religiosa con elementos de la naturaleza. Sin embargo hay miles de ellas y por algún motivo su visibilidad está siendo potenciada por el algoritmo de la plataforma.
El 'jesucristo-gamba' no es la única corriente de este tipo. Por algún motivo hay determinadas temáticas de imágenes generadas con IA cuya visibilidad se ve impulsada por el algoritmo de Facebook para aumentar las interacciones de usuarios. Una de ellas muestra a niños africanos que han construido algún tipo de escultura con materiales reciclados. Algunas son alucinaciones tan descabelladas como las del 'jesucristo-gamba'.
En este caso, si se baja a los comentarios tampoco se verán usuarios indignados por el hecho de que se compartan imágenes claramente artificiales como si fueran reales o, si los hay, representarán una minoría. Por norma estos contenidos acumulan miles de me gusta y comentarios como “Un gran artista”, “Increíble, felicidades amiguito” o “¡Qué bonito!”.
¿Qué hay detrás de esas cuentas? ¿Tienen los enjambres de bots predilección por las imágenes sintéticas? El periodista Jason Koebler, del medio estadounidense especializado en tecnología 404Media, intentó contactar con los perfiles que dejaban comentarios elogiosos en imágenes como estas. Quería averiguar si realmente eran usuarios que no se habían percatado del origen artificial de los contenidos. “Intenté sin descanso hablar con la gente que comentaba estas imágenes, pero no tuve suerte en absoluto”, relata.
“A lo largo de varios meses, envié mensajes a 300 personas que habían comentado las extrañas imágenes generadas por la IA”, afirma. “También comenté docenas de imágenes yo mismo, pidiendo a cualquier humano que también hubiera comentado la imagen que me respondiera. De esos cientos de mensajes, recibí cuatro respuestas en total. Una persona me envió un emoji de pulgar hacia arriba y luego canceló el mensaje. Otra persona dijo 'de nada', otra dijo 'de acuerdo' y otra, que comentó la imagen del Tío Sam Jesús amputado [otra de las temáticas impulsadas por el algoritmo de Facebook], dijo 'Hola Jason. Esta es mi cuenta y no es falsa', y luego no respondió a ninguna pregunta”.
Koebler destaca que lleva años contactando con personas a través de Facebook para documentar sus informaciones y es la primera vez que le ocurre algo así. El fenómeno del 'jesúcristo-gamba' ha propiciado incluso una investigación preliminar del Observatorio de Internet de la Universidad de Stanford. Analizaron 100 páginas de este estilo y pudieron diferenciar dos grupos: granjas de contenido y estafadores.
“Las páginas de spam utilizaban tácticas de clickbait e intentaban dirigir a los usuarios a granjas de contenidos fuera de la plataforma y a webs de baja calidad. Las páginas fraudulentas intentaban vender productos inexistentes o conseguir que los usuarios revelaran datos personales”, explican los investigadores, que exponen que ambos grupos se aprovechan de que el algoritmo de Facebook aumenta la visibilidad de este tipo de imágenes. Pero su estudio no pudo revelar por qué son un imán para los bots.
“Sospechamos que las imágenes generadas por IA aparecen en los feeds de los usuarios porque el algoritmo de clasificación de Facebook promueve los contenidos que pueden generar interés”, aventuran.
De la IA para la IA
El informe de Imperva y lo que está sucediendo en Facebook son dos de los hitos que han reavivado el debate sobre el Internet muerto. “Hace diez años, la teoría solía ser bastante especulativa, pero con la aparición de la IA generativa, ahora se puede observar de primera mano y destaca una tendencia inquietante: las líneas borrosas entre las interacciones humanas y las impulsadas por la IA”, explica en la revista científica AI & Society Yoshija Walter, profesor de la Universidad de Ciencias Aplicadas de Kalaidos (Suiza).
Hace diez años, la teoría solía ser bastante especulativa, pero con la aparición de la IA generativa, ahora se puede observar de primera mano
“A medida que la IA prolifera en la generación de contenidos, moldea cada vez más las percepciones y comportamientos de los usuarios, dirigiendo la narrativa digital hacia sus objetivos determinados algorítmicamente, a menudo en desacuerdo con la naturaleza inherentemente impredecible del discurso humano”, opina: “Las redes sociales cada vez tienen menos que ver con conectar a los humanos con otras personas, sino con consumir contenido y engancharse con dosis de dopamina deliberadamente dirigidas a nuestros cerebros”.
Meta no se ha posicionado directamente sobre las alucinaciones de la IA potenciadas por su algoritmo. Su vicepresidente, Nick Clegg, publicó a principios de año un post en el que informaba de que la compañía estaba trabajando con el resto de la industria digital para etiquetar todos los contenidos generados con IA que pudieran engañar a los usuarios.
“A medida que se difumina la diferencia entre contenidos humanos y sintéticos, la gente quiere saber dónde está el límite”, escribía. “Por lo tanto, es importante que ayudemos a las personas a saber cuándo el contenido fotorrealista que están viendo ha sido creado usando IA. Hacemos esto aplicando etiquetas de ”Imaginado con IA“ a las imágenes fotorrealistas creadas usando nuestra herramienta Meta AI, pero también queremos poder hacerlo con contenido creado con herramientas de otras compañías”, avanzó.
Pese a que ninguna de las imágenes citadas en este artículo estaba etiquetada, el resurgir de la teoría del Internet muerto va más allá de las recomendaciones algorítmicas de las redes. En la progresiva automatización de la red también destacan los influencers generados con inteligencia artificial gestionados por agencias de publicidad o los chatbots que sustituyen la atención al cliente por robots.
“Si bien la integración de la IA en las redes sociales introduce nuevas vías de participación y eficiencia, no debería eclipsar la necesidad fundamental de una auténtica conexión humana”, opina Walter: “Originalmente desarrollamos Internet y las redes sociales para ayudarnos a encontrar buena información y mantenernos conectados unos con otros. Por lo tanto, debemos asegurarnos de que siga siendo así”.