Hasta no hace tanto tiempo, la entrada de Wikipedia para Marie Curie (descubridora del radio y del polonio, además de la primera –y única– persona que ganó dos premios Nobel en disciplinas tan distintas como la Química y la Física) era una sola línea: “Esposa de Pierre Curie”. Sin embargo, puede que hasta ese sexismo desembozado sea preferible al otro, a ese machismo imperceptible que atraviesa a la ciencia desde siempre y se derrama sobre la tecnología como uno de esos gases que no por invisibles dejan de intoxicar.
¿Es casual que la mayoría de las chicas que desfilan por los videojuegos luzcan ropa ajustada, escotes y lencería hasta para combatir en un asteroide? ¿Que la versión femenina de la entrada “persona que se dedica a la medicina” no sea “médica” sino “enfermera”? ¿O que cada asistente virtual haya tenido –por defecto y durante una década, como sucedió con Siri– voz de mujer? ¿Por qué ellos dan las órdenes y ellas ofrecen ayuda? ¿Será también casualidad que –programadas para mostrarse sumisas y “serviciales”– inteligencias artificiales como BIA (la asistente virtual del banco brasileño Bradesco) hayan recibido decenas de miles de insultos, propuestas sexuales y hasta fotos de genitales?
Hace ya varios años que las Naciones Unidas para la Educación y la Cultura (UNESCO) hablaron de la brecha de género tecnológica. Alrededor del mundo lo que prima es la replicación de estereotipos de género a través de distintos dispositivos tecnológicos y los asistentes de voz son apenas una parte de un fenómeno mucho más vasto y peligroso por lo que tiene de invisible: la perpetuación de desigualdades basadas en esa diferencia.
Para Ana Fukelman, educadora digital y creadora de una aplicación para conocer el ciclo ovulatorio llamada LunarApp, hoy el panorama para las mujeres en tecnología es más alentador que hace una década pero tampoco se ha modificado radicalmente. Ella habla, con cierto humor, del ámbito tecnológico como de una especie de “club de chicos” al que las mujeres y diversidades siguen siendo –si no malvenidas- sí minimizadas. Y aporta, a modo de ejemplo, un dato bien concreto: el limitado acceso de las denominadas femtech (las empresas tecnológicas lideradas por mujeres) al financiamiento. Y eso por no mencionar otro dato clave: el modo en el que los sesgos –de género, de raza, de clase- se entrecruzan para terminar presentándonos un universo homogéneo y ultra editado como si fuese el mundo real.
“La tecnología sexista es apenas una parte del problema real, que es el sexismo. Porque lo central es eso: entender que los problemas sociales reaparecen en nuestros dispositivos una y otra vez. Entonces, la perspectiva de género y de las personas que (como mujeres y disidencias) no estamos incluídas en la mayoría de los proyectos tecnológicos implica mirar de una manera mucho más profunda los problemas sociales que estamos teniendo”, explica. “Pero si traés a tus equipos a personas que tengan distintas orientaciones sexuales, diferentes cuerpos biológicos y que provengan de diferentes clases sociales seguramente vas a tener mayor diversidad de ideas. Y eso, en este momento, es central”.
El verdadero costo del Club de Chicos
Según ella, la miopía de género tiene un costo a veces alto y cita un ejemplo concreto en el campo de la medicina. “Cuando se diseñó la vacuna contra el COVID, no se tuvo en cuenta su posible impacto en el ciclo ovulatorio femenino. La verdad es que ni siquiera lo pensaron, porque –en la prisa por sacar la vacuna- en los equipos de trabajo el factor género ni siquiera se contempló. Recién cuando las mujeres comenzaron a contar que después de la vacuna habían tenido cambios en su ciclo menstrual se detectó el problema”, explica. “Hoy en día, con la mayoría de los proyectos tecnológicos en manos de varones cis, se priorizan las cuestiones de entretenimiento, financieras, y muy poco al servicio que impliquen un poco más de compromiso social, cuestiones ambientales, etc”.
En ese sentido, destaca, la Iniciativa Idea reúne a diversos proyectos innovadores (apps, páginas web, podcasts, etc) a través de los cuales se abordan temas como los derechos sexuales y reproductivos, el aborto o el acoso callejero con perspectiva de género y apoyo tecnológico.
Desde la sociedad civil, una organización como la Fundación Mujeres en Igualdad (MEI) organiza desde hace años talleres de capacitación para adolescentes de sectores desfavorecidos, con la idea de impulsarlas a emprender carreras tecnológicas. “Hicimos talleres en el Centro Cultural Marcelina Meneses, de Ezpeleta, y en el Colegio Nacional de Quilmes”, detalla Monique Altschule, directora de MEI. “Les hablamos a las chicas de las mujeres en las ciencias y de cómo operaban los estereotipos de género. Y ahí nos dimos cuenta de que la batalla iba a ser a dos puntas, porque había que explicarles a las chicas que también ellas podían programar y a las docentes, que dejaran de repetirles a las chicas eso de que 'Las mujeres no sirven para las ciencias'. Los estereotipos están y hay que combatirlos, en especial en los ámbitos en los que se mueven las chicas y las jóvenes, como son los entornos digitales”, destaca.
Prueba que no eres un robot (ni un afroamericano)
En efecto, la tecnología con la que más a menudo interactuamos (buscadores, chatbots, aplicaciones) no sólo rezuma sexismo sino también clasismo y racismo. A Joy Boulamwini, egresada del Instituto Tecnológico de Massachussets (MIT), afrodescendiente e investigadora de nuevas tecnologías, el sesgo vino a tocar a su puerta (a su pantalla, diríamos mejor) el día en que notó que la cámara de su computadora no lograba detectar su rostro.
“Ella quería diseñar un programa que convirtiera a la pantalla de la computadora un espejo que le dijera elogios y le levantara la autoestima. Era un experimento, un posible desarrollo”, explica Alejandro Tortolini, especialista en tecnología educativa y docente invitado en la Universidad de San Andrés. “Para eso usaba un programa de reconocimiento facial pero ya haciendo las primeras pruebas, descubrió que la cámara no reconocía a su rostro como humano a menos que se pusiera una careta blanca. Esos errores tienen que ver con la programación y con las bases de datos que se utilizan al momento de programar. Tienen que ver con lo que vos le mostrás al algoritmo para entrenarlo. Esto es lo que dice Kate Crawford en ese libro maravilloso que es El atlas de la inteligencia artificial: las primeras bases de datos que se utilizaron para entrenar a la IA eran racistas y sexistas. Entonces, ¿qué esperabas que sucediera? Conclusión: estos programas terminan haciendo algo parecido a lo que hacen los humanos pero sin ser jamás inteligentes”.
Lo bueno del caso es que, luego de ese descubrimiento, Boulamwini se unió a otras investigadoras y programadoras y juntas crearon La Liga de la Justicia Algorítmica (AJL, Algorhitmic Justice League). “Este equipo se forma cuando un grupo de mujeres afroamericanas empieza a comprobar empíricamente que hay un sesgo contra las mujeres y, especialmente, contra las mujeres afro en el desarrollo de tecnología. A partir de eso comenzaron a combatirlo”, precisa Tortolini.
Destripando el sistema
Beatriz Busaniche, titular de la Fundación Vía Libre y docente de FLACSO Argentina, coincide y señala que –más que la falta de diversidad en los equipos de programación- el principal problema en materia de sesgos radica en las bases de datos utilizadas para entrenar a la inteligencia artificial. “Entonces no se trata solamente de poner más mujeres a programar sino también por revisar qué tipo de información se usa para alimentar el aprendizaje de estos sistemas, cómo se evalúan los resultados de estos sistemas y qué tipo de responsabilidades se les otorgan a estos sistemas”, marca.
Con eso en mente, Busaniche y sus colegas diseñaron una herramienta llamada Estereotipos y Discriminación en Inteligencia Artificial (EDIA). ¿De qué se trata? “Es un sistema para que personas sin conocimientos técnicos pudieran explorar artefactos de procesamiento de lenguaje natural. Por ejemplo los chatbots, los sistemas de búsqueda, todos esos sistemas con los que interactuamos usando lenguaje humano. Desarrollamos EDIA como una herramienta cuyo objetivo principal es destripar los sistemas y poner, en manos de quienes no han estudiado ciencias de la computación, una herramienta de evaluación de esos sistemas. Cualquiera puede, con EDIA, evaluar los sesgos y las características discriminatorias que pueda tener un artefacto que use lenguaje natural, porque hoy los sistemas de inteligencia artificial atraviesan prácticamente toda nuestra vida. Y si, como decía Arthur Clark, 'toda tecnología lo suficientemente sofisticada es indistinguible de la magia', nosotros no queremos que la tecnología sea magia y que las personas que interactúan con ella tengan la posibilidad de indagarlas, interpelarlas y tomar decisiones respecto de esas tecnologías, y no al revés”.
Es un comienzo, un primer asomo a los secretos de la caja negra.
FS/CRM