Los responsables de OpenAI, la empresa desarrolladora del ChatGPT, han pedido regular las inteligencias artificiales (IA) “superinteligentes” mediante la creación de un organismo equivalente a la Agencia Internacional de la Energía Atómica que proteja a la humanidad del riesgo de crear algo que podría destruirla accidentalmente.
El director ejecutivo de OpenAI, Sam Altman, y los cofundadores Ilya Sutskever y Greg Brockman, han publicado una breve nota en la web de la empresa pidiendo que un regulador internacional empiece a desarrollar los criterios para “inspeccionar sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad, y establecer restricciones sobre el despliegue y los niveles de seguridad”, con el fin de reducir el “riesgo existencial” que pueden plantear estos sistemas.
“En los próximos 10 años, es concebible que en la mayoría de los campos los sistemas de IA superen el nivel de destreza de los expertos y desarrollen tanta actividad productiva como una de las mayores corporaciones actuales”, dicen en la nota. “En términos de posibles ventajas y desventajas, la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado. Nuestro futuro puede ser mucho más próspero pero para llegar a él tenemos que gestionar los riesgos. Si la posibilidad es un riesgo existencial, no podemos limitarnos a reaccionar”.
En el corto plazo, los tres firmantes piden “cierto grado de coordinación” entre las empresas a la vanguardia de la investigación en IA con el objetivo garantizar que el desarrollo de modelos cada vez más potentes se integre de manera fluida en la sociedad mientras se prioriza la seguridad. La coordinación, escriben, podría hacerse con un proyecto dirigido por el gobierno o con un acuerdo colectivo que limite el crecimiento de la capacidad de la IA.
Aunque los investigadores llevan décadas alertando por los posibles riesgos de la superinteligencia, esos riesgos se han vueltos más concretos con la aceleración del desarrollo de la IA. Según el Centro para la Seguridad de la IA (CAIS, por sus siglas en inglés), creado en Estados Unidos para “reducir los riesgos a escala social derivados de la inteligencia artificial”, el desarrollo de la IA plantea ocho categorías de riesgo “catastrófico” y “existencial”.
“Completamente dependientes de las máquinas”
Más allá del temor que algunos sienten por la posibilidad de una IA tan potente que destruya completamente a la humanidad, por accidente o de manera intencional, el CAIS hace referencia a otros daños más perniciosos. Un mundo en el que se le encargan cada vez más tareas a los sistemas de IA podría llevar a la humanidad a “perder la capacidad de autogobernarse y volverse completamente dependiente de las máquinas”, un proceso de “debilitamiento” por el que el pequeño grupo que controle los sistemas poderosos podría “convertir a la IA en una fuerza centralizadora”, produciendo la “monopolización de los beneficios” en un eterno sistema de castas entre gobernantes y gobernados.
Según los responsables de OpenAI, “la gente de todo el mundo debería decidir de manera democrática cuáles son los límites y los valores por defecto de los sistemas de IA” para evitar que esos riesgos se materialicen, aunque admiten que “aún no se sabe cómo diseñar ese mecanismo”. No obstante, dicen que vale la pena correr el riesgo de seguir desarrollando sistemas potentes.
“Creemos que nos llevará a un mundo mucho mejor del que hoy podemos imaginar (ya estamos viendo los primeros ejemplos en áreas como la educación, los trabajos creativos y las herramientas de productividad personal)”, escriben. Detener su desarrollo también podría ser peligroso, advierten. “Como las ventajas son tan enormes, el coste de construirla disminuye cada año, con un rápido aumento en el número de actores desarrollándola, y es una parte inherente de nuestra senda tecnológica actual. Detenerla requeriría algo así como un régimen de vigilancia global, y ni siquiera eso lo garantizaría. Así que tenemos que hacerlo bien”.