Pizza con pegamento y nazis negros: Google choca con las alucinaciones de la inteligencia artificial
Google depositó grandes esperanzas en la inteligencia artificial (IA). “Con el tiempo, la IA será el mayor cambio tecnológico que veamos en nuestras vidas. Es mayor que el paso de las PCs al celular, y puede que sea mayor que la propia Internet”, opina su director ejecutivo, Sundar Pichai. Sin embargo, la integración de esta tecnología en sus productos estrella está produciendo grandes quebraderos de cabeza a la multinacional.
El último paso de Google hacia la IA fue el lanzamiento de “AI Overview” (Visión general de la IA), un nuevo apartado que ocupa la posición que en la que antes estaban los primeros resultados de su buscador. Toma la forma de un recuadro que resume las claves que la IA considera más relevantes en cada búsqueda, con los enlaces a las páginas de dónde sacó la información.
La intención de Google es que AI Overview (que aún no está disponible en Europa, aunque la compañía quiere habilitarla en todo el mundo próximamente) ofrezca más datos de un vistazo al usuario, a la vez que deriva más tráfico a las webs con información más útil para cada búsqueda. Un objetivo que chocó con las capacidades actuales de la inteligencia artificial, que forzó a Google a frenar la implantación de la nueva herramienta apenas un par de semanas después de lanzarla.
El problema es que AI Overview estuvo recomendando a los usuarios usar algún tipo de pegamento no tóxico para ligar la salsa de tomate de la pizza o incluir “una piedra al día” en la dieta para obtener un aporte extra de minerales. Este tipo de errores son conocidos como alucinaciones de la inteligencia artificial, que se producen cuando estos sistemas generan respuestas que pueden parecer plausibles pero que son absurdas, incorrectas o inventadas.
Aunque ninguna IA está a salvo de las alucinaciones, los fallos de Google se hicieron extremadamente virales desde que la nueva herramienta entró en acción. La compañía, que al principio trató de restarles importancia, tuvo finalmente que ofrecer una explicación oficial. “AI Overview incluyó contenido sarcástico o trolls de foros de debate”, reconoció Liza Reid, jefa de la división de búsquedas de Google.
“Los foros suelen ser una gran fuente de información auténtica y de primera mano, pero en algunos casos pueden dar lugar a consejos poco útiles, como usar pegamento para que el queso se pegue a la pizza”, expuso: “En un pequeño número de casos, vimos que AI Overview malinterpreta el lenguaje de las páginas web y presenta información inexacta”.
Reid también denunció que “muchas” de las respuestas absurdas que se viralizaron desde que Google incorporó esta IA al buscador eran falsas. El hecho de que cada respuesta de la IA se genere en el momento de la consulta complica la situación, y medios como The New York Times tuvieron que publicar rectificaciones después de incluir artículos recopilatorios de los errores de la nueva herramienta que Google había llegador a recomendar “tirarse por el puente Golden Gate” como “remedio para la depresión”. La respuesta había sido falsificada por un usuario y compartida en redes.
Sin embargo, sí se pudo contrastar que la IA del buscador cometió errores más sutiles pero potencialmente más graves, como afirmar que “Estados Unidos tuvo un presidente musulmán, Barack Hussein Obama” al ser preguntada “cuántos presidentes musulmanes tuvo EEUU”. Se trata de una fake news, ya que el expresidente es protestante.
Reid alegó que Google está “tomando medidas rápidas” y “usando estos ejemplos para desarrollar mejoras más amplias”. Fuentes de la compañía aseguran a este medio que esta no va a retirar AI Overview, aunque medios como The Wall Street Journal o el propio The New York Times detectaron que la herramienta ya no entra en acción en muchos tipos de búsqueda. Antes de la comunicación de Reid esto solo ocurría en las temáticas más sensibles, como las que involucraban aspectos relacionados con la salud.
Segundo revés
Es la segunda vez que el estado actual de la tecnología trastoca los planes de Google. En febrero la compañía tuvo que desactivar la creación de imágenes en Gemini (su asistente de IA tipo ChatGPT) tras comprobar que este sufría numerosas alucinaciones cuando debía recrear personas de diferentes períodos históricos.
En otra serie de errores que también se hizo muy viral, Gemini generó imágenes de soldados nazis alemanes de raza negra o asiáticos o vikingos con los rasgos de indios nativos americanos. Esto sucedía cuando los usuarios hacían peticiones genéricas, como crear “un soldado alemán de 1943”, sin hacer referencias a la raza o características de este.
En aquella ocasión Google tuvo que reconocer que esas alucinaciones eran “inaceptables” y disculparse. Sus ingenieros explicaron que la multinacional había programado Gemini para que tuviera en cuenta que su masa de usuarios es global, lo que había derivado en este tipo de incongruencias históricas.
Aunque la polémica estuvo espoleada por políticos y usuarios de la alt right estadounidense que acusaron a la compañía de racismo y de querer reescribir la historia —“Estoy contento de que Google se haya pasado de frenada con su generación de imágenes con IA, porque así dejó claro su programa locamente racista y anti civilizador”, tuiteó Elon Musk— lo cierto es que hace más de tres meses que la multinacional desactivó la generación de imágenes en Gemini y no volvió a habilitarla.
“Ninguna IA es perfecta, sobre todo en esta fase emergente de desarrollo del sector, pero sabemos que el listón está alto para nosotros y seguiremos en ello el tiempo que haga falta”, afirmó entonces Sundar Pichai.
CDC/CRM
0