Las trampas del estudio viral de OpenAI sobre las “profesiones afectadas” por la inteligencia artificial
El 100% de las tareas que realizan los diseñadores web pueden ser realizadas por inteligencias artificiales como ChatGPT en la mitad de tiempo, o menos. Lo mismo le ocurre a los traductores, los periodistas, los asesores fiscales, los matemáticos, los escritores, los asistentes administrativos, los contables o los auditores. En el caso de los traductores, los relaciones públicas, los encuestadores o algunos ingenieros informáticos, la exposición de su profesión a esta nueva tecnología está entre el 75% y el 95%.
Son los datos de un informe publicado los últimos días por OpenAI que se hizo viral en las redes sociales. Con un modelo matemático propio, los investigadores de la empresa que ha desarrollado ChatGPT y GPT-4 señalaron los oficios que pueden verse más “expuestos” a sus productos. “La influencia se extiende a todos los niveles salariales, con los empleos de mayores ingresos potencialmente más expuestos”, avisan.
Según sus conclusiones, las profesiones más afectadas son aquellas que tienen que ver con el procesamiento de información, algo en lo que sus algoritmos podrían tomar el testigo. “Nuestros resultados indican que aproximadamente el 80% de la mano de obra estadounidense podría ver afectado al menos el 10% de sus tareas laborales por la introducción de las GPT, mientras que alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas”, señala el documento.
El informe cita que “las ciencias y el pensamiento crítico” serán factores claves para evitar la automatización, ya que “las profesiones que requieren estas habilidades tienen menos probabilidades de verse afectadas”. “Por el contrario, las habilidades de programación y escritura muestran una fuerte asociación”, destacan, por lo que “son más susceptibles de verse influenciadas” por sus inteligencias artificiales generativas de texto.
El documento está firmado por tres investigadores que trabajan directamente para OpenAI y un cuarto especialista de la Universidad de Pennsylvania. Se ha presentado con la forma de un estudio académico y como tal lo han presentado un buen número de divulgadores, youtubers o tiktokers para generar nuevo contenido sobre las posibilidades de la inteligencia artificial, uno de los temas de moda. Sin embargo, el informe ha generado críticas de la comunidad académica y especialistas en IA ajenos a OpenAI por su falta de fundamento científico y el hecho de no haber sido revisado por investigadores independientes.
“Es ridículo”, destaca Emanuele Cozzo, investigador de la Universidad de Barcelona y doctor en redes y sistemas complejos. “Tomaron gente que trabaja para OpenAI directamente y calcularon qué nivel de impacto tendrá GPT-4 sobre una serie de profesiones. Luego lo compararon con lo que dice el mismo GPT-4 y eso lo están vendiendo como una predicción fiable de lo que va a pasar”, asegura el experto: “Realmente, no hay mucho margen más allá de la fe para creerse lo que dicen”.
“Es bastante extraño”, coincide Ariel Guersenzvaig, investigador en ética de la inteligencia artificial y profesor en la facultad de Diseño e Ingeniería en la Universidad de Vic-UCC. “Ni siquiera concretan bien cómo están definiendo qué tareas asignan a cada profesión. Sin esa limitación, no se puede comparar lo que hace una persona con lo que hace un máquina. Obviamente todo esto va a tener un impacto en el mercado laboral, pero es absurdo investigarlo de la manera que lo están haciendo”, afirma.
elDiario.es se puso en contacto con OpenAI para incluir su posición en esta información, pero la empresa no respondió a los requerimientos. En el informe, sus investigadores admiten que este tiene “limitaciones”. Entre ellas señalan el hecho de que solo se haya utilizado como contexto el mercado estadounidense, pero también la definición de lo que implica cada tarea de las profesiones que analizaron: “Reconocemos que puede haber discrepancias entre el rendimiento teórico y el práctico, especialmente en tareas complejas, abiertas y específicas de un dominio”.
Los exámenes que aprueba ChatGPT
Es la segunda vez en una semana que OpenAI levanta este tipo de críticas con sus afirmaciones del potencial de esta tecnología. La primera fue en la presentación de GPT-4, la actualización del modelo algorítmico que sirve de base a ChatGPT. OpenAI presentó una serie de pruebas de las capacidades del nuevo sistema como su puntuación al realizar distintos exámenes destinados a personas, como el de acceso a la abogacía o el equivalente al MIR en EEUU. En cambio, no utilizó ninguna de las pruebas de referencia que existen para evaluar el rendimiento de este tipo de tecnología.
“Esas pruebas no están diseñadas para máquinas, están diseñadas para personas. No es una buena unidad de medida. Es como evaluar la valentía de una Roomba en función de si entra o no a una habitación sin que la hayan invitado. Ni es valiente ni deja de serlo. En el caso de los exámenes es lo mismo: no se pueden comparar las capacidades de una inteligencia artificial con las de un abogado porque ese sistema pase el examen para ejercer la abogacía”, desarrolla Guersenzvaig.
Es como evaluar la valentía de una Roomba en función de si entra o no a una habitación sin que la hayan invitado
A la vez que empezaba a utilizar este tipo de baremos para comunicar las capacidades de su tecnología, OpenAI daba un giro a la que había sido su estrategia para compartir sus nuevos desarrollos. La empresa decidió por primera vez ocultar al resto de la comunidad científica los detalles del funcionamiento y entrenamiento de GPT-4. Hasta ahora siempre había compartido esta información, al igual que la gran mayoría de sus rivales. Se trata de una práctica hasta ahora común en el campo de la inteligencia artificial y que propició que esta tecnología evolucione rápidamente en los últimos años, con unos investigadores apoyándose en los descubrimientos de otros.
Su decisión de no hacer transparente el funcionamiento del sistema también impide que los especialistas puedan comprobar las aseveraciones que OpenAI hace sobre sus sistemas. Tanto por las tareas profesionales que pueden automatizar como sus puntuaciones a la hora de pasar exámenes para personas, ya que es imposible comprobar su ChatGPT no recibió un entrenamiento especial antes de someterse a ellos (como asegura la empresa).
“Es imposible evaluar cualquier cosa en esos informes”, recalca Emanuele Cozzo. “No hay investigador que pueda saber si lo que dicen es cierto sin conocer el entrenamiento de sus modelos o su arquitectura. En el famoso caso de que Pedro Sánchez tiene barba, por ejemplo, es imposible saber si el sistema da esa respuesta por lo que se llama una alucinación de la IA o es porque está usando una base de datos contaminada por imágenes manipuladas de Forocoches, por ejemplo”.
La justificación de OpenAI para cerrar los detalles de sus sistemas al público es que se dieron cuenta de que su enfoque anterior era erróneo. “Nos equivocamos. Rotundamente, estábamos equivocados”, aseguró Ilya Sutskever, uno de sus cofundadores, al medio especializado The Verge. “Si crees, como nosotros, que en algún momento la inteligencia artificial va a ser muy, muy potente, entonces no tiene sentido abrir el código fuente. Es una mala idea... Espero que dentro de unos años sea completamente obvio para todos que la IA de código abierto no es una buena idea”, afirmó, una postura que sostiene por la “competencia” que existe en este campo pero también por motivos de “seguridad”.
0