“Puedes probar cualquier pose, pero quedará mejor si sigues estas instrucciones. Es mejor subir fotos de buena calidad ya que así será mucho más fácil para el mecanismo reconocer a la persona que aparece en ellas. Intenta que sean fotos de una sola persona y que estén en el centro de la pantalla. Intenta que lleven ropa que no oculte demasiado las formas de su cuerpo”.
Son las instrucciones para utilizar la aplicación que ha causado indignación este lunes después de que se supiera que un grupo de menores de Almendralejo (Badajoz, España) la ha utilizado para desnudar a sus compañeras. “Se ha producido una denuncia por la utilización de imágenes de chicas menores simulando imágenes sin ropa”, ha explicado el delegado del Gobierno en Extremadura, Francisco Mendoza.
“Se ha producido una denuncia, se han tomado varias declaraciones, concretamente se llevan tomadas siete declaraciones de siete posibles víctimas, y como consecuencia de la investigación policial se ha procedido a la identificación de alguno de los menores que pudieran estar implicados”, ha añadido.
Facilidad de acceso
La llegada de este tipo de aplicaciones, capaces de poner todo el potencial de la inteligencia artificial (IA) –también sus capacidades más perniciosas– en las manos de personas sin conocimientos técnicos, era cuestión de tiempo. La competencia técnica necesaria para utilizarlas lleva reduciéndose semana a semana desde hace meses. “Viene un tramo de curvas bastante denso”, advierte Marc Almeida, experto informático que ha programado distintos tipos de inteligencias artificiales generativas.
“Con algo de hardware puedes hacer lo que quieras de forma relativamente sencilla”, advertía este especialista en un reportaje de elDiario.es sobre el uso que los pedófilos están haciendo de la IA para generar pornografía infantil.
La inteligencia artificial de la aplicación usada en este caso (elDiario.es no cita su nombre en esta información para no facilitar su utilización) parte de una tecnología denominada LoRA (Low-Rank Adaptation) que se comparte libremente en múltiples páginas web. A grandes rasgos, se trata de modelos de IA básica que luego el usuario puede entrenar en una determinada capacidad.
En el caso que ha salido a la luz este lunes se ha utilizado un LoRA entrenado especialmente en desarrollar violencia sexual mediante IA. No obstante, estos sistemas pueden ser entrenados en cualquier tipo de capacidad si se les proporciona la base de datos adecuada para ello. Pueden copiar a un determinado artista o alterar fotografías para que sus protagonistas parezcan salidos de una determinada serie o videojuego, por ejemplo.
Hasta ahora, para usar este tipo de sistemas con un entrenamiento especial el usuario debía descargarlos a su dispositivo o usar los que otros usuarios hubieran subido a esas páginas especializadas. Es un proceso que requiere pocos conocimientos, pero el negocio de la app presuntamente usada por los menores de Badajoz es simplificarlo aún más: el usuario no tiene que descargar nada ni buscar información sobre cómo utilizar los programas para interactuar con la IA. Solo tiene que subir una foto de una mujer y esperar a que el sistema la desnude.
La app ofrece una primera imagen de prueba, tras lo cual cobra por cada foto modificada con su IA. Sus desarrolladores ofrecen diferentes ofertas. Cuatro créditos (equivalentes a cuatro fotos) valen dos dólares. Usar su IA para crear 25 imágenes de mujeres desnudas cuesta 10 dólares (9,37 euros). El servicio tiene una alta demanda y la tarde de este lunes requería entrar en una lista de espera de seis minutos para utilizarlo.
elDiario.es se ha puesto en contacto con los administradores de la web para preguntar acerca de las medidas de seguridad que incluye su aplicación para impedir que se suban fotos de menores. También sobre si existen controles para impedir que la usen los adolescentes. No ha obtenido respuesta.
Al utilizar la herramienta, la página avisa de que no se hace responsable de las imágenes resultantes y que los usuarios deben tener el consentimiento de la mujer que aparece en ella para subirla, así como tener más de 18 años. Sin embargo, según ha podido comprobar este medio, no existe ninguna cortapisa para bloquear la IA en caso de que esto no sea así. Afirman que para “asegurar la privacidad de sus usuarios”, “las fotos y las solicitudes no se almacenan en ningún sitio”.
Los gestores de la aplicación han utilizado un método de registro especial para la página web que impide que tengan que comunicar ningún dato sobre su identidad.
Además de en inglés, la página está disponible en ruso. También cuenta con un “dealer 24/7” llamado “Mikhail” que se encarga de dar los detalles sobre cómo hacer la transferencia para comprar más usos de la herramienta. El teléfono de Mikhail utiliza el prefijo +380, correspondiente a Ucrania. No obstante, la traducción al ruso puede haber sido realizada de manera automática y un número con prefijo de cualquier país puede adquirirse de manera sencilla en la red, por lo que podrían ser pistas falsas dejadas por sus desarrolladores para apuntar a un posible origen ruso o ucraniano.
Descuentos para quien distribuya la app
La app no está disponible en las tiendas de aplicaciones de Android ni de Apple. Para descargarla hay que acudir a la página y añadir esta como un acceso directo en el menú del dispositivo. “Una vez añadido, el sitio web funcionará como una aplicación web en tu pantalla de inicio, ofreciendo una experiencia fluida a pantalla completa sin la barra de direcciones del navegador”, explican.
Para sortear el veto de las tiendas de aplicaciones y distribuirse con mayor facilidad, la app ha previsto ofertas especiales para los usuarios que la compartan entre sus amigos. De esta forma, cuando una persona gaste 10 euros, la web le proporcionará un “link de afiliación”, que sus conocidos podrán usar para registrarse y conseguir descuentos. El usuario que les facilitó el link se llevará bonificaciones del 25% de lo que inviertan sus conocidos.
La app también tiene un bot de Telegram en el que ofrece los mismos servicios y precios. “1 moneda = 1 desvestido. Para recargar, ve al menú 'Recarga”, explica el bot: “Disfrute de un fascinante viaje al mundo del topless”.
Posible delito de pedofilia
Generar o almacenar imágenes que desnudan a personas de manera artificial tiene una clara línea roja. “Si las imágenes muestran a menores se trata de un delito de pornografía infantil simulada que está prevista en el propio artículo 189 del Código Penal. Basta que sean imágenes realistas para que el delito se consume”, expone el abogado Carlos Sánchez Almeida.
En cambio, si las personas afectadas son adultas y las imágenes no se comparten con nadie, el hecho de desnudarlas con IA no sería un acto punible. “Solamente sería delictiva en la medida que produzca un daño en la víctima, lo que podría ser un resultado de su distribución. En ese caso, a mi juicio se incurriría en un delito contra la integridad moral, por resultar gravemente humillante. Pero la mera tenencia no sería delictiva en caso de mayores de edad”, explica.
Si las imágenes muestran a menores se trata de un delito de pornografía infantil simulada
El letrado, experto en derecho digital, recuerda la circular de la Fiscalía de 2016 redactada con la inteligencia artificial y los menores en su punto de mira. El texto adelantaba que esta tecnología podría hacer “imposible distinguir entre imágenes reales e imágenes generadas por ordenador”, por lo que especificó que debía considerarse “pornografía virtual” ilegal toda “aquella en la que la imagen del menor es una creación artificial pero realista, elaborada por ordenador u otro medio”.
“Imágenes realistas serán imágenes cercanas a la realidad, a la que tratan de imitar. Dicho de otro modo, serían imágenes que no son reales pero lo parecen. Podrían abarcar imágenes alteradas de personas existentes e incluso las imágenes generadas mediante ordenadores”, ejemplificaba la Fiscalía. Una definición en la que entraría de lleno la generación de material pornográfico de menores con IA.
La particularidad de este caso es que son otros menores los supuestos responsables del delito, por lo que es la ley orgánica que regula la responsabilidad penal de los menores la que entra en juego. “La gravedad de las penas no es la misma que en el Código Penal para adultos. Están más orientadas a la educación”, continúa.
La UE medita ilegalizar los LoRA
La UE está negociando un nuevo Reglamento para la Inteligencia Artificial que previsiblemente se aprobará durante la presidencia rotativa española. Uno de los puntos que aún están abiertos es la posibilidad de prohibir los LoRA sin supervisión. Es decir, establecer normas que impidan que cualquier usuario pueda descargar inteligencias artificiales de código libre y las entrene de la forma que desee.
Casos como el de Badajoz son los que se ponen encima de la mesa por los partidarios de esta prohibición. En el otro extremo se encuentran muchos especialistas que explican que los LoRA son solo una herramienta. “Es como si se acusa al fabricante de martillos de que lo han usado para realizar un homicidio”, explicaba en conversación con este medio Javier Rueda, gestor de Openjourney, una de las inteligencias artificiales de código abierto generativas de imágenes más populares del mundo.