La irrupción de ChatGPT y las inteligencias artificiales generativas, capaces de interactuar de manera coherente en lenguaje natural, diseñar imágenes artísticas o componer canciones de manera indistinguible de como lo haría una persona, disparó nuestra imaginación. Estamos acostumbrados a que la tecnología digital avance de manera exponencial: hace 35 años los ordenadores ocupaban plantas enteras de un edificio. Hoy tenemos modelos mucho más potentes del tamaño de un reloj. Hace 25 años pusimos el conocimiento humano en línea con Internet. Hoy tenemos máquinas que lo analizan, saben cómo somos y crean conocimiento a partir a partir de ello. ¿Qué podríamos tener en 20 años? ¿Inteligencias artificiales conscientes de sí mismas y capaces de mejorarse a sí mismas? ¿La singularidad tecnológica?
“¡Puede que no tengamos nada!”, ríe Erik Larson, autor de El Mito de la Inteligencia Artificial. Por qué las máquinas no pueden pensar como nosotros lo hacemos (Shackleton books). Un libro con el que este científico experto en computación, al que DARPA (la Agencia de Proyectos de Investigación Avanzados de EEUU, la misma que impulsó la creación de Internet) financió varias iniciativas relacionadas con la inteligencia artificial (IA), quiere mandar un mensaje sobre esta tecnología: “Tenemos que ser realistas. Estamos engañando a la gente. Estamos diciendo que esto está a la vuelta de la esquina, cuando realmente no lo sabemos”, explica en esta entrevista con elDiario.es.
¿Podría explicar en qué consiste el mito de la IA?
El mito de la inteligencia artificial es la convicción de que estamos en una trayectoria inevitable en la que eventualmente llegaremos a la singularidad y a la Inteligencia Artificial General (IAG), y que es sólo cuestión de tiempo que lo hagamos. En el libro no digo que sea imposible que esto vaya a suceder, pero explico que es un mito concebirlo como algo obvio. No es obvio. Realmente no lo es. Podrían pasar 100 años y que el estándar sean todavía estas enormes inteligencias artificiales simuladas que en general no son realmente capaces de entender nada, como ChatGPT. Podría no llegar nunca. O podría ser que en diez años hayamos descifrado el código y ya la tengamos. El error es afirmar que es inevitable, porque lo que sí sabemos es que los avances actuales no nos acercan más a tener una inteligencia artificial similar a la humana.
¿Por qué? ¿Cuál es la diferencia en la forma de pensar que tienen las personas y el funcionamiento de la inteligencia artificial?
La inferencia. La inferencia se refiere al proceso lógico de concluir algo basándose en lo que uno ya sabe y observa. La inferencia es algo que todos hacemos constantemente en nuestra vida cotidiana, ya sea conversando con alguien u observando el mundo que nos rodea. Hay dos tipos de inferencia: inductiva y deductiva. Sin embargo, la mayoría de las inferencias que hacemos se basan en la observación de algo que ocurre y en la formulación de hipótesis sobre su causa plausible: ¿Qué pasó? ¿Por qué pasó esto? Este tipo de inferencia se denomina razonamiento abductivo, un término no muy conocido acuñado por un matemático y filósofo del siglo XIX. La abducción implica cuestionarse constantemente por qué ocurre algo y formular hipótesis sobre el mundo. Eso es lo que hacemos nosotros, que es distinto del análisis estadístico y no es algo que los ordenadores puedan hacer actualmente.
Nos cuestionamos constantemente por qué ocurre algo y formulamos hipótesis sobre el mundo. Es muy distinto del análisis estadístico de los ordenadores
El punto clave de mi libro es que hay una diferencia fundamental entre la forma en que los humanos infieren el mundo y la forma en que los sistemas computacionales infieren el mundo. Yo trabajo en este campo y pese a todos los avances que estamos viendo, no nos estamos acercando. Los ordenadores y la IA no se están acercando a la inferencia humana y ahora mismo no conocemos un camino para que lo hagan. De momento, ese sendero solo existe en nuestra imaginación. Podríamos descubrirlo, o podríamos no hacerlo. Lo que nos pasó con los autos autónomos es un muy buen ejemplo de este problema.
Es cierto que hace cinco años nos prometieron que la conducción autónoma sería una realidad a día de hoy, pero parece que aún está muy lejos.
Porque realmente necesitamos algo más. Qué es ese “algo más” es una pregunta científica abierta. Muchos de los pioneros del aprendizaje profundo, si nos fijamos en lo que estaban diciendo en 2012 y 2013, estaban convencidos de que era la tecnología que iba a darnos esta respuesta. Ahora esas mismas personas reconocieron que en realidad no lo era. Los vehículos de conducción autónoma son un ejemplo perfecto de que el aprendizaje profundo no es suficiente porque no importa la cantidad de datos que tengas para entrenar a un sistema y simular acontecimientos en la carretera. Siempre hay casos que están en los extremos, son eventos inusuales o implican sorpresa. Pero los sistemas de aprendizaje automático sólo se entrenaron en eventos anteriores, sólo con lo que ya ha sucedido. Así que cuando tienes un nuevo evento, no son adecuados.
Necesitamos algo más. Vamos a tener que encontrar algunos enfoques híbridos o simplemente empezar a investigar y buscar otras maneras de hacerlo. ¿Qué dirección exacta debemos tomar? No tenemos ni idea. Seguimos aprendiendo, pero confiar ciegamente en que lo encontraremos es un mito y contribuye a que la gente tenga concepciones inadecuadas de esta tecnología.
El libro es previo a la salida de ChatGPT. ¿Cambió su visión de este campo tras la aparición del sistema de OpenAI?
Hay mucha confusión sobre ChatGPT. Es obvio que no sabe de lo que está hablando. Si le haces la pregunta correcta, producirá respuestas sin sentido, lo que llamamos alucinaciones de IA. No está haciendo el tipo de inferencia que discuto en el libro. No está claro cuándo conseguiremos la Inteligencia Artificial General, o si lo conseguiremos algún día, pero ChatGPT es otro ejemplo de que no estamos en el camino de conseguirla. Se percibe como un ejemplo de progreso, pero si se examina de cerca cómo funciona, no lo es.
¿La suma de avances como este no nos acerca más a una verdadera IA?
No, es otro de los errores. El éxito de aplicaciones que se conocen como débiles, como ChatGPT, que aplicaron el aprendizaje profundo a un campo en concreto, no nos acerca más a la Inteligencia Artificial General, lo que llamamos IA fuerte. En los últimos años aprendimos a mejorar las IA débiles con ordenadores más rápidos y muchos más datos. ChatGPT puede analizar millones de periódicos, pero no puede entender lo que dice ninguno de ellos.
ChatGPT puede analizar millones de periódicos, pero no puede entender lo que dice ninguno de ellos
OpenAI defiende que su misión como empresa es la búsqueda de esa IA general. Lo hace en su carta fundacional y recientemente volvió a recalcar esta aspiración. ¿Cree que de verdad están investigando cómo conseguir una IA general o es solo marketing?
Sí, creo que es marketing. Creo que también es importante, con estos grandes modelos lingüísticos, reconocer que fueron pasos adelante tácticamente para que pudiéramos hacer más cosas. Y creo que OpenAI hizo un buen trabajo explorando ciertos aspectos de la inferencia estadística inductiva con volúmenes muy grandes de datos. Es una muy buena contribución al campo de la IA. Pero creo que cuando hablan de la IA general, es comparar manzanas con naranjas. ChatGPT no es un ejemplo de IAG. Ni siquiera está en camino. Creo que es importante recordar eso cuando escuchas que la IAG vuelve a ser parte de la discusión.
ChatGPT fue entrenada en superordenadores para ingerir cantidades masivas de datos. Sin embargo, cuando los datos se detienen, no sabe nada del mundo. Por ejemplo, cuando le pregunté por la guerra de Ucrania, no supo responder. Está entrenada con conocimientos enciclopédicos como Wikipedia y otras fuentes, que es a lo que me refiero con inducción estadística. Es un sistema impresionante, pero no cambia el problema de la inferencia del que hablo en el libro. Simplemente se le da un volumen tan grande de información que puede encontrar respuestas a preguntas. Sin embargo, también puede generar un completo sinsentido si se le hace la pregunta equivocada.
¿A qué atribuye entonces que ChatGPT haya espoleado el debate sobre la singularidad como pocas veces antes?
Yo viví cuatro años en Palo Alto, en Silicon Valley. Allí conciben las computadoras como el futuro inevitable de la humanidad, es casi como una religión. Así que esa idea nunca va a salir de California. No importa lo que pase, la gente siempre estará hablando de la Inteligencia Artificial General, básicamente. Otra cosa que también hay que tener en cuenta es que hicieron falta unos 30.000 millones de dólares para entrenar esta IA, así que no es el tipo de IA que esperábamos, en la que el ciudadano de a pie pudiera poseerla. Es básicamente propiedad de un muy rico y muy pequeño número de personas.
¿Le preocupa que si finalmente se descubre esa IA general, sea en ese pequeño grupo de personas quien lo haga?
Sí, creo que es una preocupación realmente válida. De hecho, estoy escribiendo un segundo libro sobre lo que ha ido mal en el siglo XXI hasta ahora y si lees la literatura que se remonta al cambio de siglo, alrededor del año 2000, ves que todo el mundo estaba escribiendo sobre el poder democratizador y transformador de Internet. Era una tecnología que iba a dar poder a la gente, no sólo a los de arriba. Pero sucedió exactamente lo contrario. Ahora las únicas personas que están haciendo comunicados de prensa sobre la IA son empresas muy, muy ricas, propiedad de un número escandalosamente pequeño de personas. La inteligencia artificial no está en el dominio de los investigadores cotidianos, ya ni siquiera son las universidades las que innovan en el campo de la IA, sino estas empresas muy ricas.
No quiero exagerar con esto, pero la IA puede convertirse en una herramienta de opresión
No quiero exagerar con esto, pero la IA puede convertirse en una herramienta de opresión, básicamente. Creo que eso es un problema. Estaría bien ver a gente innovando en inteligencia artificial por todas partes, en España, en Europa, en las universidades, etcétera. Lo que está ocurriendo ahora no es la visión que teníamos cuando empecé en este campo, más o menos en el año 2000. Entonces se trataba de cómo todo el mundo iba a estar contribuyendo a este gran proyecto de construir un mundo mejor con tecnología. Nadie está contribuyendo ahora en eso, aparte de estas personas muy ricas.
En el libro explica que algunos de los problemas al interpretar las capacidades de la IA empezaron muy pronto, casi en la época de Alan Turing.
Él escribió un famoso artículo en 1950 sobre las posibilidades de la IA. Y especuló con que para el año 2000, los computadores habrían logrado pasar lo que ahora llamamos el Test de Turing. Es un anacronismo, ya que obviamente él no lo llamó “Test de Turing”, sino “Imitation Game”, como la película.
Básicamente, una máquina pasa el Imitation Game cuando una persona no puede decir si está hablando con un ordenador o no. Pero el mito no fue algo que surgiera realmente de Alan Turing, sino de un tipo que trabajó con él llamado Jack Good. Él también era parte del proyecto Bletchley para descifrar las máquinas Enigma de Alemania y fue una de las personas que colaboraron más estrechamente con Turing. Good escribió un artículo en 1960 diciendo que en algún momento se daría la singularidad tecnológica, por la que las computadoras se volverían tan inteligentes que llegaría un momento en el que no sabríamos cómo lidiar con ellas. Ahí fue cuando surgió el mito. La idea de la singularidad se siguió desarrollando a partir del artículo de Good por filósofos y escritores de ciencia ficción. También por gente como John von Neumann, que estaba involucrado en el Proyecto Manhattan. No fue solo Alan Turing o sus colaboradores, en realidad se desarrolló por un número más amplio de personas.
Pese a todo, uno de los mensajes del libro es que el sueño de la IA sigue vivo.
Es una idea que me gusta destacar, y mi intención en el libro no era terminar con ella. Era decir: “Oye, tenemos que ser realistas. Estamos engañando a la gente. Estamos diciendo que esto está a la vuelta de la esquina, cuando realmente no lo sabemos. Hay problemas que no sabemos si podremos resolver”. A veces lo comparo con la fusión fría. Recuerde, la fusión fría estaba a la vuelta de la esquina en 1950. ¿Qué pasó con eso? Que descubrimos, como científicos, que hay problemas que son mucho más difíciles de lo que pensábamos. Incluso a veces descubrimos que algo es realmente imposible. Pero descubrir que algo es imposible es conocimiento científico, ¿verdad? Está el principio de incertidumbre de Heisenberg.
En el terreno de la IA, es una pregunta abierta. Podría ocurrir, pero podría no ocurrir. Pero si alguien un día descubre que en realidad es imposible, que no se puede hacer esto en un ordenador, también será un gran avance en la ciencia.