Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
OPINIÓN

Yo, robot

El interrogante que hoy despierta la IA no está en cuánto puede llegar a optimizarse.
14 de marzo de 2025 06:54 h

0

Todavía me impresiona que, cada tanto, en alguna página de Internet, se me pida que haga algo para indicar que no soy un robot, que tenga que acreditar mi naturaleza humana. Me impresiona que un robot me pida que le demuestre que no soy un robot, lo que expone que puedo serlo tranquilamente.

Una sensación de impresión semejante tuve cuando, hace poco, un hombre me comentó un experimento que realizó al salir de su sesión: le contó al ChatGPT lo que me había dicho y evaluó su respuesta. Le dijo algo bastante parecido, incluso con un dejo de comprensión y optimismo. Si esto es lo que hoy hacen las máquinas, no quiero imaginarme lo que será en un futuro.

Los seres humanos tenemos pasión por las distopías. La ciencia ficción muestra cómo la mayoría de las veces proyectamos en el futuro lo que está ocurriendo ahora. No tenemos tanta imaginación como creemos. En los ’80 se fantaseaba con los muertos vivos y con los zombies, con esos seres semi-vivos en los que nos hemos convertido en estas décadas.

De la misma forma, alguien hoy dice que en el futuro las máquinas nos van a dominar, como si hoy no fuéramos esclavos de nuestros smarthphones. Todo lo que va a pasar, ya está pasando. Ya pasó. Eterno retorno, diría Nietzsche.

Entiendo que hace un tiempo ya están probando aplicaciones de psicoterapia. Un colega que se dedica a investigar sobre inteligencia artificial contaba hace poco que –creería que en California– se hizo un estudio con el seguimiento de dos grupos: uno hizo su tratamiento con la guía de un programa, el otro se atendió con una persona.

Resumo el resultado: desde el punto de vista de las indicaciones, no hubo demasiadas diferencias. Sin embargo, el grupo que hizo tratamiento con profesionales de carne y hueso tuvo una mayor adherencia y mejoría. Cuando trataron de entender el motivo, encontraron la explicación siguiente: quienes se tratan con personas tienen en cuenta la expectativa que los profesionales tienen de que se curen.

¿Esta es una versión actualizada del texto “La eficacia simbólica” de Lévi-Strauss? ¿Es que los pacientes se mejoran para no decepcionar a sus terapeutas? Al final, ¿todo el asunto queda en una cuestión de sugestión? Tampoco iría tan rápido. Creo que hay una hipótesis más simple: la relación con un humano impone una condición electiva, la de importarle a alguien y tener en cuenta lo que le pasa con lo que nos pasa.

Dicho de otra manera, puede ser que la IA tenga una enorme capacidad para intervenir, pero salvo que le supongamos mente y establezcamos un vínculo personal, sus respuestas no serán más que utilitarias y, además, puramente imaginarias. Esto último quiere decir que el sujeto que utiliza IA de modo psicoterapéutico no tiene en cuenta que mentir es un elemento crucial de la dinámica de un tratamiento.

No me refiero solamente a mentirle al terapeuta, sino a mentirse a uno mismo. ¿Quién dijo que somos las personas adecuadas para hablar de lo que nos pasa? La IA jamás podría pensar sobre nosotros algo que no le estamos diciendo, porque su respuesta se mide a partir de información. Y un proceso psicoterapéutico basado solo en lo dicho es apenas una suerte de cosmética con consejos de sentido común.

Mi paciente salió de la sesión y le contó a la IA lo que me había contado, para ver qué le decía esta; pero para ponerme a prueba a mí, para luego contármelo y quizá hacerme una pregunta por vía indirecta acerca de nuestro vínculo. No dudo de que los seres humanos, que cada día pierden más capacidades humanas, pueden ser como la IA en el futuro.

En el futuro, es decir, ahora. La falsa pregunta es plantear si la IA puede perfeccionarse para llegar a ser como un humano. La inquietud es que los humanos puedan perder lo propio de un vínculo al punto de comportarse como la IA.

Esto me recuerda la situación en que, hace un tiempo, me contrataron de la productora de una serie para colaborar con un guion, específicamente en la construcción del personaje de un psicólogo. Por esa vía, luego conversé con una escritora que buscaba otro personaje psi para otra serie.

Ella me dijo: “No quiero que sea un autómata. Para mí este personaje tiene que ser un poco como los detectives de la novela negra. Se trata de un anti-héroe, se le tiene que notar mucho lo humano, algún vicio, no puede ser un manual; la fantasía con los psi es que trabajan de eso por algún motivo oscuro, no por el ideal ingenuo de ayudar a las personas”. Después de escucharla recordé las palabras de Freud sobre cómo los artistas llevan la delantera.

El interrogante que hoy despierta la IA no está en cuánto puede llegar a optimizarse. La cuestión está del lado del usuario: ¿hasta qué punto un ser humano está dispuesto a tolerar el encuentro con otro ser humano, con lo fallido que este tiene? Si pensamos la psicoterapia como un servicio y un consumo, es claro que el camino es el de las aplicaciones.

Un amigo va a un analista del que siempre se queja. Dice que él no lo entiende, que a veces le dice pavadas, cosas de sentido común –¿de esas que podría decir la IA?–, que una vez hasta se quedó dormido, que otra le dijo que, francamente, lo que él decía era muy aburrido. La moral contemporánea clasificaría ese vínculo como contraproducente y jamás se le ocurriría pensar en que uno de los modos de transferencia en la histeria es la queja respecto del desinterés del otro.

¿Se imaginan lo tremendo de que alguien nunca se aburra con lo que decimos? ¿Saben por qué la IA no se desinteresaría de lo que decimos? Porque de verdad no le importamos. Su disposición permanente es un modo de la indiferencia –de la misma manera que la bondad que se actúa en el ideal de querer ayudar encubre un profundo desprecio. 

LL/MF

Etiquetas
stats