Era ella. O, como mínimo, se movía como ella, hablaba como ella y tenía un cuerpo demasiado parecido al suyo. El único “detalle” sospechoso era que se trataba de un video porno –la clásica trama de los hermanitos incestuosos– protagonizado por una mega estrella como Gal Gadot, la actriz de Mujer Maravilla y de Agente Stone, entre otras. Qué hacía una ultra celebridad de Hollywood rodando una película como ésa fue precisamente la pregunta que nadie quiso hacerse. De hecho, para los miles de internautas que se tiraron de cabeza en la web para buscar a Gal haciendo piruetas fraternas lo último que importaba era que ella fuera real: con que se pareciera lo suficiente, con que su cara estuviera ahí y el trabajo de face swapping (cambio de cara, la herramienta usada para reemplazar el rostro de un video por cualquier otro) alcanzaba y de sobra. Corría 2017 –un millón de años atrás en la geología de Internet– y lo que hoy conocemos como inteligencia artificial generativa caminaba con pasos de bebé. Ya se hablaba de su posible impacto en la industria audiovisual y hasta de los beneficios que podría generar en los negocios y disciplinas más diversas. ¿Qué tal poder probarse ropa o verse manejando un auto de lujo?¿Qué cliente no querría ver eso?
Lástima que, como suele suceder, fueron los usuarios los que comenzaron a poner en evidencia los infinitos modos en los que la flamante tecnología podría derivar hacia un costado bastante más turbio: las deep fake. Esto es, los “engaños profundos” surgidos a partir de lo que se conoce como deep learning, ese modo de aprendizaje gracias al cual las computadoras pueden hacer cosas antes impensables. Hablamos de videos o audios enteramente generados por redes neuronales y capaces de convencer a cualquiera de, literalmente, cualquier cosa. Desde que Gal Gadot se acuesta con su hermanastro hasta de que Chayanne es realmente quien le está enviando un saludo de cumpleaños a la tía Tita.
Volviendo al uso más cochino y rentable de la IA, y como lo profetizó en su momento Samantha Cole, editora senior de tecnología de la revista Vice, “el porno falso ya está aquí y estamos todos jodidos” (fucked up, en la versión original). ¿Por qué decía eso? Justamente porque lo que destacaba Cole en su nota era que el porno video de Gadot había sido generado y difundido no por un investigador con acceso a datos, códigos y equipos de avanzada sino por un simple nerd usuario de Reddit (un redditor) y con algo de conocimiento sobre el tema. De hecho, lo que inquietó a Cole fue la facilidad con la que no sólo aquel nerd pionero sino cualquier otro en cualquier lugar del mundo podría llegar a repetir la experiencia y convertir literalmente a cualquier mujer sobre la Tierra en la protagonista de un video por el estilo.
Exactamente eso que hace poco le sucedió nada menos que a Taylor Swift y por lo que X debió suspender las búsquedas de su nombre por una semana, al tiempo que el fandom de la cantante salía a su rescate con el hashtag #ProtectTaylor. Pero, ¿y las demás? Corrección: ¿y todas las demás? Si Taylor –que además de ser famosa y querida cuenta con un ejército global de swifties– no pudo impedir la viralización de su imagen haciendo y diciendo cosas que nunca hizo ni dijo, ¿qué les espera a las simples mortales ahora que esta tecnología hoy convertida casi en commodity? Porque, como sostiene Deep Trace, una empresa de Holanda dedicada al análisis y protección contra las deep fake, el proceso de commoditización de esta tecnología ya está en marcha. “Esto ya no es la NASA”, dijo. Una afirmación doblemente válida tras el lanzamiento de Sora, la nueva joya de Open AI que permite crear, a partir de un texto, un video de altísima definición.
De chequeos y chicas
¿Qué implica realmente para todos –pero en especial para mujeres y disidencias– la chance cierta de generar videos tan falsos como convincentes? ¿En qué se cree ahora que decir “lo vi con mis propios ojos” resulta más absurdo que nunca? “Es que ése es precisamente nuestro problema: ya no podemos creer en nada, no importa si es una noticia o un video”, apunta al respecto Patricia Faur, de la Universidad Argentina de la Empresa (UADE) e investigadora de los vínculos mediados por la tecnología. “Este es el tiempo del chequeo, de la verificación. Entonces, y más allá de lo terrible que es que alguien pueda verse expuesto de este modo y tener que salir a decir ”No soy yo“, lo agotador que ahora vamos a comenzar a vivir para desmentir que ésa que dicen que soy o que dijo en realidad no es ni dijo ni hizo nada”, alerta. “Y, como la verdad está depreciada, lo que interesa no es la verdad sino certezas –cualquier certeza– que nos baje la incertidumbre”.
En ese contexto, cualquier intento por poner un coto legal a los usos indebidos de la IA parece, como mínimo, cándido. Un dato: en Estados Unidos solamente tres estados tienen legislación específica destinada a perseguir las deep fake. Otro dato: hoy, el debate acerca de cómo impedir el denominado “mal uso de esta tecnología” parece más centrado en restringir ciertas prácticas puntuales (cancelar búsquedas específicas o imágenes específicas, por caso) que en impedir el acceso libre a apps y servicios en línea que en este momento y por un precio bastante módico (menos de U$S50) permiten generar videos deep fake en cuestión de minutos.
Un informe elaborado por la firma holandesa Deep Trace muestra que ya en el arranque de este fenómeno 100% de las imágenes femeninas generadas por esta tecnología se crean para alimentar sitios de porno. De hecho, en esos espacios hace ya añares que personajes como Taylor Swift, Gal Gadot o Emma Watson protagonizan videos para los que no dieron ni sus imágenes ni su consentimiento.
El punto es que esta vez –y con una frecuencia cada vez mayor– las plataformas consideradas como marginales (4chan, 8chan, etc) alojan videos cuyas imágenes, luego de una captura de pantalla, “ascienden” hacia redes más populares y desatan la pesadilla de la viralidad.
Micaela Cuesta, doctora en sociología y coordinadora del Laboratorio de Estudios sobre Democracia y Autoritarismos (LEDA) de la Universidad de San Martín destaca al respecto que un dato central en ese proceso es “el grado de verosímil que producen estas nuevas imágenes. Porque la manipulación o falsificación en base a materiales ”reales“ ha existido siempre, aunque no con este nivel de verosimilitud, no en este volumen y no con la rapidez inédita con la que circulan hoy. Lo que genera todo esto es que muchos sujetos sociales pasan no sólo a sospechar de todo sino también al reforzamiento de sus propios sesgos y prejuicios. Y todo esto genera sociedades cada vez más hostiles a la heterogeniedad y a un estado de alerta frente a ese otro que se percibe al mismo tiempo como más próximo y más inaccesible. El mayor costo es político, porque escepticismo y paranoia generan mayores niveles de crueldad y de castigo”.
Y precisamente de eso (de crueldad y de castigo) es de lo que en definitiva se trata el porno generado con ayuda de la inteligencia artificial: de castigar y desvalorizar a muchas actrices, cantantes y mujeres reconocidas a través de estos artefactos de humillación viral que son los videos deep fake. Una vez lanzados a la web, son descargados en cualquier rincón del mundo y una simple captura de alguna de sus escenas hará que esta se reproduzca hasta el infinito.
“El olvido en Internet no existe”, apunta al respecto Alejandro Tortolini, especialista en tecnología educativa y profesor invitado en la Universidad de San Andrés. “Una vez que soltamos algo allí (una frase, una foto, un video) no hay forma de eliminarlo si nos perjudica, o si perjudica a otras personas. En general hay una actitud de asombro y fascinación frente a la tecnología, generando el fenómeno que Vincent Mosco llamó lo sublime digital. Sentimos una fascinación casi religiosa frente a los avances de la tecnología, olvidando que tales avances no son inevitables ni unidireccionales, así como tampoco están exentos de peligros y responsabilidades. Estamos en un momento peligroso por la aceleración que el sistema capitalista imprime a estos avances, y por una subestimación de la reflexión ética sobre los mismos. En ese sentido, los recortes que se hicieron sobre los equipos que trabajaban sobre este ángulo en empresas como Google (con el despido de la especialista Timnit Gebru en 2020, por ejemplo) son toda una señal”, advierte.
La nueva quema de brujas
Más allá de la ya conocida porno venganza (difusión malintencionada de un video privado, como ése de Fátima Florez que aun está colgado en varios sitios porno alrededor del mundo), lo que hoy se está discutiendo es algo todavía más dañino y elusivo: la posibilidad de crear videos de porno falso pero a la vez hiperreales y protagonizados por esas mujeres a las que se desee dañar.
Ya no se necesita tener (como antes) miles y miles de imágenes a disposición para entrenar al algoritmo. Hoy basta con un par de decenas y –redes sociales de por medio- esa cantidad se alcanza casi de inmediato. Al mismo tiempo, la creciente disponibilidad de herramientas y servicios de creación de contenidos audiovisuales que permiten desde reemplazar rostros hasta generar videos completos en los que ese rostro “de reemplazo” haga y diga lo que queramos habla de un deseo de alteración tan evidente como masivo. E incontrolable.
En 2019, por ejemplo, un aficionado desarrolló un programa para “desvestir” imágenes, reemplazando las partes cubiertas por ropa con piel, pezones y genitales –oh, casualidad– siempre femeninos. Llamó a su programa Deep Nude (Desnudo profundo) y no bien la noticia llegó a los medios el sitio colapsó. Recibió más de medio millón de visitas en un día y fue dado de baja, pero no tardó en florecer en otros mil clones porque el código fuente, la terrorífica “máquina de desnudar chicas” ya se había viralizado. Ya no había vuelta atrás.
Para Natalia Anguete, investigadora del CONICET y docente de la Universidad Nacional de Quilmes, la palabra clave en relación a este fenómeno es un neologismo: weaponizar. Esto es, convertir al desnudo no consentido en un arma (weapon) orientada específicamente a silenciar voces disidentes o que irriten al poder. “Las mujeres en general –y las políticas y celebridades en particular– son atacadas como parte de la respuesta reaccionaria a los avances que hubo en muchas sociedades en materia de derechos civiles. En ese sentido, determinadas mujeres son tomadas como ”condensación“ de esos logros, y por ende objeto de tergiversaciones y falsedades ”weaponizadas“ en el sentido de que son creadas solamente para provocar daño”. Daño y también ganancias inmediatas. “Existen sitios que directamente ofrecen tutoriales para empezar crear deep fakes y obtener ganancias inmediatas, con lo cual la tentación es enorme”, destaca Tortolini. “La historia de Internet, de hecho, nos recuerda que los sitios porno fueron pioneros en explorar nuevas tecnologías, motivados por el lucro inmediato”.
Taylor Swift, con sus declaraciones en contra de varios líderes mesiánicos (Trump, entre ellos) sin dudas es un buen ejemplo de este fenómeno de weaponización que ya está derramando sobre personas bastante menos célebres que ella. Al respecto, no son pocos los investigadores que se preguntan qué pasará cuando estas herramientas se popularicen todavía más y cualquier alumno enojado con su profesora pueda convertirla en la protagonista de una deep fake. O hasta dónde puede llegar el bullying con estos instrumentos de venganza a sólo un clic de distancia y potencialmente monetizables.
FS/DTC