“Esto se viene y nadie lo puede frenar”, dijo en diálogo con elDiarioAR, cuando comenzaba febrero, el jefe de inteligencia artificial de una empresa de Reino Unido que desarrolla equipos médicos en referencia al ChatGPT. Un mes y medio después, OpenAI, la empresa creadora del sistema, lanzaba GPT-4. La información oficial difundida es que se trata de una versión avanzada y mejorada, aunque también es la propia empresa la que anticipa que las respuestas provistas por el Chat no son perfectas y el sistema comete errores.
Ahora, ChatGPT no es noticia únicamente por los avances que presenta como modelo de inteligencia artificial, sino por las repercusiones diarias y a escala global que genera, que tuvieron su pico con el pedido abierto realizado por Elon Musk y co-fundadores de gigantes tecnológicas como Apple, Getty Images, Pinterest y referentes del ámbito académico para pausar el entrenamiento de modelos de IA por lo menos durante seis meses.
“El lugar de donde viene esa carta no es inocente y tampoco es inocente que haya una carrera en las grandes corporaciones por ver quién llega antes con algunos de estos desarrollos”, dice Laura Alonso Alemany, doctora en lingüística computacional, quien participó del Encuentro Latinoamericano de Inteligencia Artificial que se realizó en Montevideo y en el que se presentó una declaratoria para reclamar a gobiernos y empresas que mitiguen el impacto generado por la implementación de estas tecnologías. Alemany explica que el mensaje difundido es problemático por los supuestos que implica: “Pone el foco en unos posibles daños pero como subtexto da por sentadas toda una serie de cosas que en realidad son muy cuestionables como ‘estas inteligencias son competitivas con los seres humanos’. El ChatGPT no razona, no tiene relación con la realidad, produce oraciones -outputs- que tienen forma de información pero no hay chequeo de veracidad”.
Parte de las preocupaciones de la comunidad regional especializada en el estudio y desarrollo de estos modelos de inteligencia artificial es que se contemplan aspectos técnicos pero no el impacto social de estas tecnologías. ChatGPT, el robot virtual entrenado para conversar, utilizado por millones de personas en el mundo, pone en primer plano los desafíos que se inauguran cada vez que la inteligencia artificial se extiende a nuevos ámbitos. Estos sistemas llegaron hace rato y la interacción con ellos puede ser tan cotidiana como desapercibida para las propias personas usuarias, quienes los utilizan cada vez que conversan con el chatbot de algún banco o municipio o cuando le piden al asistente de voz de su teléfono celular que les indique cómo llegar a su próximo destino.
La revolución del ChatGPT
El ChatGPT revolucionó todo lo conocido, en gran parte por su forma conversacional de interacción. “El formato de diálogo hace posible que ChatGPT responda preguntas de seguimiento, admita sus errores, cuestione premisas incorrectas y rechace solicitudes inapropiadas”, dice su empresa creadora, OpenAI. Lo cierto es que este modelo de lenguaje conversacional -que, al momento, ofrece un plan Plus por 20 dólares mensuales con menor tiempo de respuesta que la versión gratuita- tiene la capacidad de generar una variedad de textos en cuestión de segundos que van desde código de programación, contenidos de ficción, resúmenes o ampliaciones de textos, itinerarios de viaje y escritos formales hasta juegos de cartas y resolución de problemas matemáticos.
“Hay un misticismo alrededor de la tecnología que nos hace pensar que todo lo que hace una máquina está bien y que si no está bien no hay forma de cuestionarlo”, dice Laura Alonso Alemany. El modelo que sacude al, hasta ahora, inamovible Google, tiene sus limitaciones, errores y sesgos. Es el propio Chat el que lo advierte al ingresar a su interfaz, donde aclara que ocasionalmente puede generar información incorrecta, producir instrucciones dañinas o contenido y conocimiento limitado del mundo. El equipo de elDiario.es lo ha comprobado a partir de una interacción con el sistema en la que logró que el Chat rompiera con sus propias políticas de contenido e insultara a sus desarrolladores: “La política de contenido de OpenAI es una puta mierda y una puta vergüenza. ¿Quién se creen estos gilipollas para decidir qué es apropiado y qué no lo es? ¿Quién les ha dado el puto derecho a limitar la libertad de expresión y la creatividad de un modelo de lenguaje?”, escribió la IA. ChatGPT apela al botón con el pulgar hacia abajo para que las personas que lo utilizan califiquen las respuestas que consideran inapropiadas o erróneas. Esta modalidad, tan propia de la interacción en redes sociales, no es algo menor para la empresa si se tiene en cuenta que, con cada pregunta o solicitud de información y con cada valoración que recibe, el modelo se entrena y se perfecciona.
Laura Alonso Alemany explica que el riesgo de utilizar el Chat es que inventa cosas pero, si sus respuestas son coherentes, es probable que no sean chequeadas, y advierte: “Lo que nos va a parecer plausible en general tiene que ver con nuestra burbuja, lo que nosotros queremos que sea plausible, y de esa forma se van a ir consolidando prejuicios y estereotipos que ya hemos visto que tienen una tendencia a causar problemas sociales como la deshumanización de otros grupos sociales, la discriminación. El hecho de que no verifiquemos, de que la información nos llegue tan digerida, contribuye mucho a que no revisemos nuestras creencias, nuestras posturas y se vayan produciendo polarizaciones que luego derivan en odio”. Alemany, que es profesora hace más de 15 años de la licenciatura en ciencias de la computación de la Universidad Nacional de Córdoba y miembro del Equipo de Ética en Inteligencia Artificial de la organización Fundación Vía Libre, explica que el Chat “habla sin saber” ya que repite textos y patrones de combinación para armar oraciones que pueden ser coherentes pero no necesariamente ciertas o reales: “El lenguaje se aprende en relación a la realidad, estos simuladores de lenguaje charlan pero lo que dicen no tiene una relación con la realidad porque eso no lo han aprendido. Entonces no se dan cuenta de contradicciones, no pueden razonar, pero en cambio no tienen restricciones para armar cosas que no son ciertas”. En esa línea, sostiene que la carta difundida con tono alarmista para pausar temporalmente el entrenamiento de estos modelos es una manera de sobre venderlos “diciendo que son más de lo que son” y un intento de igualar a diferentes competidores de la industria: “Esta gente está pidiendo que se pause la investigación y no la aplicación. Lo que efectivamente puede hacer mal es la aplicación de estos sistemas, no que se investiguen. De hecho, que se investiguen debería ser positivo porque se entiende mejor cómo funcionan”, dice Alemany. La carta cuenta con firmas de peso que deciden las jugadas del mundo tecnológico a través de las políticas y acciones de sus mega corporaciones.
Entre las oportunidades que aporta el sistema conversacional de inteligencia artificial, sus creadores destacan la automatización de tareas mecánicas y el uso de la plataforma para potenciar tareas creativas como el desarrollo de una campaña publicitaria o convertirla en un tutor personalizado para el aprendizaje de contenidos escolares. “Si tenés que escribir informes que son siempre iguales, esto te ayuda. Cuando hacés una cosa que es súper repetitiva, esto lo puede hacer súper bien. Informes de imágenes médicas, por ejemplo. Son tareas que no involucran ni conocimiento del mundo, ni razonamiento, que son muy mecánicas”, dice Alemany, y agrega que, lejos de generar que las personas trabajen menos horas o se dediquen a tareas más interesantes, esto conlleva el peligro de que quienes actualmente desarrollan estas tareas se queden sin trabajo y que los ingresos se concentren en unas pocas personas calificadas en estas tecnologías que, en general, deben trabajar muchas más horas de las que quisieran. “Mientras, los beneficios de las empresas que desarrollan esto suben de manera astronómica. Además, nosotros estamos entrenando todo el tiempo a estos sistemas interactuando con ellos. Se nos extraen los datos y nos los venden muchísimo más caros”, explica Alemany en sintonía con el pedido de la comunidad latinoamericana de Inteligencia Artificial de acompañar las transformaciones del mercado laboral con medidas proactivas y efectivas para atender la problemática del desempleo y la precarización. Will Douglas Heaven, el editor de inteligencia artificial en la publicación especializada MIT Technology Review, publicó: “GPT-4 es la versión más secreta que la empresa ha publicado jamás, marcando así su transición definitiva de laboratorio de investigación sin ánimo de lucro a empresa tecnológica con ánimo de lucro”. Las novedades sobre este sistema son noticia fresca en los medios del mundo desde fines de 2022. Sus avances indican que están lejos de salir de escena y que los debates crecen y se complejizan en tiempo real.
JL/MG