Con la flamante Unidad de Inteligencia Artificial del Ministerio de Seguridad, Patricia Bullrich sigue liderando la agenda política del manodurismo y amplía sus dominios en un campo en disputa con la SIDE (Secretaría de Inteligencia del Estado) por competencias en labores de “inteligencia”.
Destinada a “patrullar las redes sociales abiertas, aplicaciones y sitios de Internet”, así como la llamada “Internet profunda”, a “utilizar algoritmos de aprendizaje automático a fin de analizar datos históricos de crímenes y de ese modo predecir futuros delitos”, a “crear perfiles de sospechosos”, a “analizar actividades en redes sociales para detectar amenazas potenciales” y a “detectar transacciones financieras sospechosas o comportamientos anómalos que podrían indicar actividades ilegales”, la nueva dependencia gubernamental nace reñida con principios constitucionales y leyes vigentes.
Apoyada en tecnologías que en otras regiones, como en la Unión Europea, demandan consensos y regulaciones construidas durante años con la participación de múltiples actores políticos y sociales, la oficina creada por resolución de Bullrich puede, desde esta semana, invadir la privacidad de millones de personas sin orden judicial.
La predicción de futuros delitos en base a datos que seleccionará el Ministerio de Seguridad para entrenar herramientas de Inteligencia Artificial ataca, a la vez, el principio de inocencia. Las llamadas “tecnologías Minority Report” (por la novela de Philip K. Dick adaptada por Steven Spielberg en un film protagonizado por Tom Cruise, “Sentencia Previa”) han presentado graves errores porque su programación es sesgada y las bases de datos que entrenan las herramientas de Inteligencia Artificial suelen ser una caja negra tan inauditable como falible.
Una persona que vive en un barrio donde las estadísticas de Bullrich presuponen que hay más delito tendrá más probabilidades de ser fichada como blanco de un turbio monitoreo oficial que un residente de otros barrios. Predecir comportamientos futuros, sentenciándolos como delictivos en base a criterios de programación algorítmica, es una atribución desproporcionada que el gobierno argentino se arroga sin advertir la contradicción con la protección de los derechos humanos que compromete al Estado, al menos en sus normas legales.
Además, la Resolución 710/2024 de Bullrich, publicada el lunes último en el Boletín Oficial, no puede ser más imprecisa respecto del alcance de las tareas encomendadas a la Unidad, que depende de la Unidad Gabinete de Asesores de la ministra –esto último, toda una rareza en materia de gestión estatal–. La opacidad no es sólo característica de los fondos reservados que asignó el presidente Milei a la SIDE.
La norma de Bullrich aspira a patrullar todo el universo digital. Una ambición ilimitada con la que no se atreverían a fantasear ni los capos de la National Security Agency (NSA) estadounidense, ni los mandamases del Guoanbu chino. Patrullar las aplicaciones, en los términos publicados en el Boletín Oficial, es un objetivo tan vago que supone controlar un sinfín de posibilidades en cada uno de los teléfonos móviles, computadoras, smartTVs y consolas de los más de 46 millones de argentinos. Las aplicaciones abarcan desde envíos de comida, tiendas de comercio electrónico, servicios de salud, de meteorología, transporte y tránsito, videos a demanda, juegos en línea, finanzas, mensajería, calendarios, aprendizaje de idiomas, citas, dietas y un largo etcétera.
Aunque es dudoso que el Estado argentino, tan denostado por Milei y su entorno, posea las calificaciones y recursos necesarios para el inédito patrullaje de todo Internet que estableció Bullrich, es claro, sin embargo, que las funciones de la Unidad creada por la ministra contrarían los valores democráticos.
No sólo el principio de inocencia está en peligro con tecnologías basadas en el cálculo probabilístico que, como advierte Juan Ortiz Freuler, reemplaza la evidencia y la certeza por la mera verosimilitud (apariencia de verdad), sino que la privacidad está también en juego. Mancillada por la regulación de facto que ejercen las grandes plataformas digitales vulnerando los datos personales de sus usuarios, la privacidad en juego desafía los derechos y garantías constitucionales e incluso la Ley de Inteligencia Nacional, que reza que todas las comunicaciones y paquetes de datos, así como “cualquier tipo de información, archivos, registros y/o documentos privados” deben ser inviolables, excepto orden judicial en contrario.
La imprecisión en la redacción de las nuevas funciones que Bullrich se ha atribuido no es casual. Ya en mayo último, cuando reintrodujo el ciberpatrullaje para perseguir cibercrímenes a través de la Resolución 428/2024, había excedido los estándares internacionales en la materia. El análisis de Lucía Camacho sobre esa norma sostiene que “enlista crímenes que no entran la categoría de cibercrímenes” además de ser ambigua y, por lo tanto, discrecional, en cuanto a qué considera “público” y “abierto” en internet.
La discrecionalidad en la definición de la política de patrullaje digital de Bullrich es preocupante porque así como en el pasado –siendo ministra de su ahora adversario, el expresidente Mauricio Macri– denunció penalmente a personas por tuitear (personas luego absueltas en proceso judicial), las facultades conferidas a la nueva Unidad de Inteligencia Artificial pueden elevar los niveles de represión de la disidencia que sufren periodistas, movimientos sociales y políticos opositores por parte del gobierno, esta vez en nombre de los algoritmos.
En 2018, el entonces gobernador de Salta, Juan Manuel Urtubey, anunció un sistema de inteligencia artificial supuestamente capaz de predecir embarazos adolescentes que resultó ser un fiasco por los severos errores técnicos y conceptuales de la tecnología que Urtubey quería importar. Tal vez ese, el negocio de la importación de paquetes de Inteligencia Artificial llave en mano, lo que motive también la nueva resolución de la ministra de Seguridad. Sus considerandos mencionan a Estados Unidos de América, China, Reino Unido, Israel, Francia, Singapur, India, países proveedores tecnologías de vigilancia que, en casos como el del software Pegasus, han sido denunciadas como sistemas desmesurados de persecución y censura.
MB/DTC