El jueves pasado Paul McCartney y Ringo Star presentaron “la canción final de los Beatles”, y aunque haya sido un hermoso gesto marketinero, hay muchas probabilidades de que realmente sea la última, al menos en la que algún humano vivo haya participado.
Como el mismo Paul contó a la BBC, un proceso de Machine Learning (un producto de la Inteligencia Artificial) se encargó de transformar una cinta de cassette defectuosa en una pista con la voz cristalina de John Lennon, lo que dio lugar a que Ringo y Paul, y un trabajo en vida del difunto George, lograran componer una nueva canción. El tema es una balada hermosa y melancólica, que nada tiene que ver con la euforia callejera y perrera del dichoso trap.
Como fuera, muchos creen que puede ser el punta pie de una música hecha por máquinas de Inteligencia Artificial (IA) a través del aprendizaje y el reconocimiento de voces. Tito Lesende, estudioso de la banda británica y autor del libro “Revolver. El disco de los Beatles que revolucionó el rock”, cree que hay posibilidades de que una empresa empiece a crear música de los Beatles tras el (lejano, espero) fallecimiento de todos ellos. Una “franquicia” póstuma.
El caso puede ser interesante para poner en contexto la primera cumbre global sobre los riesgos que entraña el desarrollo de la IA, realizada en la ciudad de Bletchley Park, Inglaterra. La iniciativa surgió por parte del multimillonario indio y primer ministro inglés, Rishi Sunak, que busca posicionar al Reino Unido como uno de los líderes internacionales de esta nueva tecnología.
Participaron algunos de los principales países involucrados en este desarrollo, de la India y China a Singapur y la Unión Europea. Los resultados de la cumbre no son realmente decisivos. Lo más destacado es que se hayan puesto de acuerdo en algo que todo el mundo sospecha: la IA representa un “daño potencial serio, incluso catastrófico” para la humanidad.
Los controles y regulaciones que puedan aplicarse a nivel mundial -si alguna vez eso sucede- podrían decidirse en la próxima reunión virtual en Corea del Sur, o en la presencial de París, el año que viene.
Mientras tanto, algunos países ya están avanzando por su cuenta en algunas regulaciones. La Unión Europea fue pionera y antes de que termine el año se aprobaría una ley sobre IA. El proyecto establece distintos niveles de riesgo asociados, algunos considerados “inaceptables”, otros de orden “limitado”.
En el primer caso, el Parlamento Europeo brinda un ejemplo: “manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños”. Es interesante porque uno podría decir que este tipo de manipulaciones ya existen de sobra en redes sociales, tanto con fines comerciales como políticos.
En Estados Unidos, esta semana, el gobierno de Joe Biden decidió avanzar más seriamente en la regulación de la IA. La Casa Blanca hará uso de una Ley que data de la Guerra Fría, y que obligará a las empresas tecnológicas a informar al Estado sobre aquellos modelos de IA y las pruebas de seguridad que realicen sobre éstos, en los casos que supongan riesgos serios para la seguridad nacional, la seguridad económica o del sistema de salud.
China, el otro gigante desarrollador de IA, también está trabajando en una ley de gobernanza de esta tecnología a nivel nacional. En general, la mayoría de los países -con mayor o menor grado de conocimiento y rigurosidad- están diseñando marcos regulatorios. Con probabilidad muchos llegarán mal y/o tarde.
La experta tecnológica del Financial Times, Elaine Moore, cuenta que Meta ya trabaja en modelos y Chat Bots para que los influencers e instagramers puedan generar sus propios bots, y no tengan que ser ellos los que respondan a los mensajes de los fans. Otro caso que comenta es el del uso de IA generativa para crear emails. Si los emails que recibimos son creados por máquinas, ¿tiene algún sentido que los iniciemos o terminemos con algún gesto humano de cordialidad? “La comunicación puede convertirse en un brusco intercambio de hechos”, apunta Moore.
Parecen nimiedades porque lo realmente importante, de lo que se habló en la cumbre en Inglaterra, es sobre la necesidad de que exista un orden global internacional que regule qué y qué no se puede hacer con la IA. La declaración firmada por los 28 países que asistieron al convite reza que la mejor forma de enfrentar los riesgos potenciales de la IA es “a través de la cooperación internacional”. El vice ministro de tecnología de China, Wu Zhaohui, destacó en su discurso que todos los actores “deben respetar la ley internacional” y trabajar juntos en la lucha contra el uso malicioso de la IA.
En la misma línea se expresó la vicepresidenta de Estados Unidos, Kamala Harris, que también participó de la reunión en Inglaterra. “Es nuestro país el que debe catalizar la acción global y construir un consenso global”, afirmó la “tsar” norteamericana de la IA. En definitiva, la principal respuesta a la inseguridad que genera la IA es la de crear un marco regulatorio respetado por todas las naciones del mundo. ¿Sucederá?
El “genocidio palestino” y el orden internacional
Este domingo se cumplirá prácticamente un mes desde que Israel inició su ofensiva en Gaza tras el horrible ataque terrorista de Hamás, que terminó con la vida de 1.400 israelíes, y el secuestro y cautiverio de otros alrededor de 200.
Desde hace por lo menos diez días -después de un silencio atroz y cómplice- los gobiernos e instituciones occidentales empezaron a advertir sobre los miles de palestinos inocentes que estaban muriendo a causa del avance indiscriminado de las fuerzas armadas israelíes en la Franja. Esta semana, renunció el director en Nueva York del Alto Comisionado de la ONU para los Derechos Humanos, Craig Mokhiber.
“Como abogado experto en Derechos Humanos con más de tres décadas de experiencia, sé que el concepto de genocidio ha sido objeto de abuso a nivel político…, pero la carnicería contra el pueblo palestino, no deja lugar a dudas”, dijo el funcionario, que justificó su renuncia en la inacción de Naciones Unidas para prevenir el “genocidio” del pueblo palestino.
Mientras se suceden críticas y denuncias similares alrededor del mundo, en el Consejo de Seguridad de la ONU (el órgano más relevante de Naciones Unidas) China y Rusia vetan resoluciones impulsadas por el resto de los integrantes (Reino Unido, Francia y Estados Unidos) y dan comunicados a la prensa en los que se presentan como garantes del derecho internacional.
El primero, impulsando instancias de negociación entre Israel y Palestina; el segundo, promoviendo como solución del conflicto la creación de los dos Estados. La escena resulta por lo menos curiosa, ya que ambos países son focos de denuncias por incumplir las misma leyes internacionales que ahora pregonan.
Sin embargo, lo que sucede no debería parecernos raro. Es el resultado de que los principales garantes y voceros del derecho internacional -las democracias occidentales- hayan aplicado interpretaciones (por llamarlo de alguna manera) distintas entre la invasión rusa a Ucrania y la incursión israelí en Gaza; lo que, en pocas palabras, ha resquebrajado cualquier consenso global sobre las leyes internacionales.
Volviendo al tema de la Inteligencia Artificial, si asistimos a la destrucción del orden legal internacional, y más específicamente al que atañe a las guerras, ¿será posible construir un consenso legal para el uso de las nuevas tecnologías? En el caso de que así fuera, ¿alguien se compromete a respetarlo?
AF