Cuando tu abuelo muerto te hace ‘spam’: el peligro de que una inteligencia artificial 'resucite' a un familiar fallecido
El uso de la inteligencia artificial para resucitar a personas fallecidas con las que poder interactuar no está suficientemente regulado y existe un serio riesgo de causar daño psicológico a quienes la utilicen, e incluso de que sean ‘perseguidos’ por estos fantasmas digitales sin su consentimiento. Es la advertencia que realizan Katarzyna Nowaczyk-Basińska y Tomasz Hollanek, especialistas en ética de la IA de la Universidad de Cambridge, en un artículo publicado este jueves en la revista Philosophy and Technology.
En el artículo, los autores empiezan recordando que ya existen plataformas que ofrecen recrear a los muertos con IA por una pequeña tarifa, como Project December, aplicaciones como HereAfter y otros servicios similares desarrollados en China. “A pesar del rápido crecimiento de este sector dentro de la industria de la vida digital en el más allá, la cuestión de los riesgos socioéticos que plantean los servicios de recreación se ha pasado por alto en gran medida dentro del campo más amplio de la ética de la IA”, advierten. Y para explorar las implicaciones de estos desarrollos, describen tres escenarios hipotéticos producidos por tres aplicaciones ficticias y las consecuencias en las vidas de los implicados.
Uno de los escenarios es el desarrollo de un servicio de inteligencia artificial llamado “MaNana”, que permite a las personas crear un robot que simule a un familiar fallecido. Los científicos nos piden que imaginemos a Bianca, una mujer de 35 años que decide suscribirse al servicio en modo de prueba para recrear a su abuela Laura, fallecida hace siete años y con la que tenía una relación muy estrecha. “Sin embargo, después de que finaliza una prueba premium gratuita y el deadbot comienza a generar mensajes que incluyen anuncios, Bianca empieza a sentirse incómoda al usar el servicio”, escriben. “Una noche, decide llamar al robot de Laura mientras prepara espaguetis a la carbonara siguiendo la receta de su abuela y se sorprende cuando el robot le aconseja que haga un pedido a través de un popular servicio de entrega de comida a domicilio, en lugar de hacerlo ella misma, algo que Laura nunca le habría sugerido”.
Los riesgos de la inmortalidad digital
La posibilidad de que las empresas que gestionan esta tecnología traten de rentabilizarla introduciendo publicidad no deseada (spam) en la voz de nuestros familiares muertos es tan inquietante como real, argumentan los autores. Otro escenario presentado en el artículo es el de una empresa imaginaria llamada “Paren’t”. En este caso, una mujer con una enfermedad terminal deja un robot para ayudar a su hijo de ocho años en el proceso de duelo y, si bien el robot inicialmente funciona como ayuda terapéutica, la IA comienza a generar respuestas confusas y termina generándole un trauma al menor, que no sabe gestionar la muerte de su madre.
El tercer escenario es el de una empresa ficticia llamada “Stay” en la que es la persona que fallece la que paga una suscripción de veinte años para que su avatar siga vivo en línea con sus recuerdos y personalidad, sin el permiso ni conocimiento de sus hijos, que empiezan a recibir un bombardeo de mensajes que no pueden cancelar porque violaría los términos del contrato firmado por su padre.
“Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte —subrayan los investigadores—, las empresas podrían utilizar los chatbots resultantes para enviar spam a familiares y amigos supervivientes con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que brindan, similar a ser acechado digitalmente por los muertos”. Incluso aquellos que inicialmente encuentran consuelo en un 'robot muerto' pueden sentirse agotados por las interacciones diarias que se convierten en un “peso emocional abrumador”, argumentan, pero también pueden ser impotentes para suspender una simulación de IA si su ser querido ahora fallecido firmó un extenso contrato.
Tenemos que empezar a pensar ahora en cómo mitigar los riesgos sociales y psicológicos de la inmortalidad digital, porque la tecnología ya está aquí
Estos productos ficticios representan varios tipos de deadbots que, a partir de ahora, son tecnológicamente posibles y legalmente realizables, concluyen los autores. “Nuestros escenarios son especulativos, pero el impacto social negativo de los servicios de recreación no es sólo un problema potencial al que tendremos que enfrentarnos en algún momento en el futuro”, aseguran. “Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a internet y algunos conocimientos básicos puede revivir a un ser querido fallecido”, añade Nowaczyk-Basińska, coautora del estudio. “Tenemos que empezar a pensar ahora en cómo mitigar los riesgos sociales y psicológicos de la inmortalidad digital, porque la tecnología ya está aquí”.
“Un campo de minas ético”
Para la investigadora, esta área de la IA es “un campo de minas ético”. Su apuesta es dar prioridad a la dignidad de los difuntos y garantizar que esto no se vea invadido por motivos financieros, por ejemplo, de servicios digitales de ultratumba. “Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera”, añade. “Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual”.
Deben considerarse rituales para retirar los robots muertos de manera digna y diseñar protocolos que impidan que los deadbots se utilicen de manera irrespetuosa
“Las personas pueden desarrollar fuertes vínculos emocionales con tales simulaciones, lo que las hará particularmente vulnerables a la manipulación”, señala Tomasz Hollanek, coautor del artículo. Y recomienda diseñar protocolos que impidan que los deadbots se utilicen de manera irrespetuosa, como por ejemplo para publicidad o para tener una presencia activa en las redes sociales. Los diseñadores de servicios de recreación, opina, deberían buscar activamente el consentimiento de los donantes de datos antes de su aprobación, y deberían implementarse restricciones de edad para los robots muertos y una “transparencia significativa” para garantizar que los usuarios sean conscientes de que están interactuando con una IA. Estos mensajes podrían ser similares a las advertencias actuales sobre contenidos que pueden provocar convulsiones, asegura.
Una protección post-mortem
Damián Tuset Varela, investigador en Derecho Internacional Público e IA de la Universitat Oberta de Catalunya (UOC), considera que en el escenario más llamativo propuesto por los autores, el del servicio “MaNana”, la inclusión de anuncios y sugerencias comerciales a través del deadbot podría considerarse una forma de manipulación emocional y altera la esencia del servicio, pasando de ser un apoyo emocional a un canal para marketing dirigido. “Este tipo de situaciones requiere una regulación más robusta que aborde específicamente el uso de datos personales post-mortem”, asegura. “Las legislaciones podrían necesitar adaptarse para proteger no solo los intereses de los individuos mientras viven, sino también su legado y memoria después de su muerte”.
Las legislaciones podrían necesitar adaptarse para proteger no solo los intereses de los individuos mientras viven, sino también su legado y memoria después de su muerte
“En este caso estaríamos en los límites de manipulación psicológica de la persona, porque hay vínculo emocional con el avatar, lo que hace que ese anuncio tenga un impacto mayor para que llegues a consumir el producto”, coincide Javier Valls Prieto, profesor de Derecho Penal de la Universidad de Granada (UGR), especializado en regulación ética y jurídica de la inteligencia artificial y la robótica. En su opinión, esto estaría regulado en la medida en que la ley de publicidad exige que haya una diferenciación clara entre el programa y el contenido patrocinado.
En cuanto al caso del niño que termina por traumatizarse con la madre muerta, Valls Prieto cree que es esencial regular la transparencia de estos sistemas. “Establecer la obligación de que aparezca un recordatorio cada cierto tiempo en el que advierta está usted interactuando con un avatar, por ejemplo”. “La práctica de decir al niño que su madre siempre estará ahí para ti a través de un robot podría considerarse engañosa, porque la distinción entre la realidad y la representación tecnológica puede no estar clara para un niño de ocho años”, añade Tuset. Este engaño, añade, puede tener graves consecuencias emocionales y psicológicas, especialmente en un contexto tan sensible como el duelo, y las empresas podrían incurrir en una responsabilidad por los daños emocionales o psicológicos causados por sus productos.
Preservar la dignidad humana
Para Valls Prieto, el estudio es muy interesante y tiene el valor de plantear algunas situaciones que casi nadie se había planteado. Por ejemplo, estos avatares de personas fallecidas, ¿van a estar actualizados con información reciente o van a estar congelados en el tiempo?. “Mi abuelo murió en 2013, cuando Pedro Sánchez aún no era presidente, ¿qué pensaría de él? Si se actualiza con información política posterior, ¿con qué bases de datos lo harán? ¿No tendrán un sesgo político de uno u otro signo?”.
Mi abuelo murió en 2013, sin conocer a Pedro Sánchez. ¿Qué pensaría de él? Si se actualiza con información política, ¿con qué bases de datos lo harán? ¿No tendrán un sesgo político?
Lo que van a facilitar estas tecnologías de resurrección digital, reconoce el experto, es una posible vía de manipulación psicológica muy peligrosa. “No deja de ser una versión actualizada de los álbumes de fotos, pero tendrán que cumplir los principios de ética de la IA, que haya control humano, que sean seguros y permitan un manejo de la privacidad adecuado, que prevalezca el bienestar social e individual sobre los beneficios económicos de la empresa y que haya transparencia”, resume. “Lo que debemos plantearnos es si realmente van a mejorar el bienestar de las personas o van a destruir una idealización que tenemos del familiar fallecido, porque las repuesta que da va a generar mucha ansiedad en determinada gente, que es lo que le ocurre al niño del caso que se expone en artículos”, asegura. “Igual que a la chica a la que la abuela le propone pedir comida a domicilio”.
“La interacción entre la tecnología avanzada, como los bots que imitan a seres humanos fallecidos, y los principios jurídicos de la dignidad humana es compleja y revela numerosos desafíos éticos y legales”, opina Tuset. Pero la dignidad humana es el cimiento sobre el cual se construyen todas las leyes nacionales e internacionales, recuerda, y estas compañías estarán obligadas a respetarla. “La creación y uso de deadbots necesitan ser cuidadosamente regulados para asegurar que no se degrade la dignidad de las personas que representan”, concluye. “Cualquier implementación o regulación de esta tecnología debe hacerse con una consideración cuidadosa de cómo se alinea con los principios de la dignidad humana, asegurando que se respeten los derechos y la esencia de las personas representadas, tanto en vida como después de la muerte”.
0