Tecnología
¿Y si mañana llega la inteligencia artificial general? El equipo de Google que ganó el Nobel señala los mayores riesgos

La inteligencia artificial es una de las tecnologías de la década. Las grandes tecnológicas y los estados están invirtiendo sumas astronómicas en su desarrollo y en la infraestructura de computación necesaria para entrenarla. Sin embargo, los sistemas generativos actuales están aún muy lejos de lograr capacidades similares al razonamiento humano. Aunque no pocos investigadores avisan de que la tecnología actual ni siquiera será la base para ese tipo de IA y que serán necesarios avances técnicos muy significativos, otros exponen que no se puede descartar que esos saltos se den en el corto plazo.
Es el caso de los 30 investigadores firmantes de un nuevo estudio de Google DeepMind, el equipo de investigadores en IA avanzada de la multinacional. “Es plausible una amplia gama de plazos, en particular plazos cortos”, dicen en un nuevo estudio, en el que destacan que esta tecnología se mueve en “cronogramas inciertos”. Entre ellos incluyen “el desarrollo de una inteligencia artificial general excepcional antes del final de la década actual”. O lo que es lo mismo: “un sistema con una capacidad equivalente al menos al percentil 99 de adultos cualificados en una amplia gama de tareas no físicas, incluidas tareas metacognitivas como el aprendizaje de nuevas habilidades”.
Bajo esta premisa, Google DeepMind —cuyos dos directores fueron reconocidos en 2024 con el Nobel de Química por AlphaFold, una IA que revolucionó la biología estructural al predecir con precisión la forma tridimensional de las proteínas, un avance clave en la investigación biomédica y el desarrollo de fármacos— llevan a cabo un análisis técnico de los mayores riesgos que entrañaría un desarrollo así. Señalan dos grandes amenazas: el mal uso y su “desalineación”.
El peligro del mal uso
El informe pone ejemplos directos de cómo esta IA general podría ser utilizada de forma indebida. Uno de ellos sería la creación de armas biológicas. “La IA podría contribuir a generar riesgos a través de la asistencia en I+D”, indican: “La asistencia en I+D química, radiológica o nuclear también presenta riesgos. No obstante, observamos que parecen menos significativos que los derivados de la I+D biológica. Esto se debe en gran medida a que la I+D biológica parece presentar un fuerte predominio ofensivo, la posibilidad de daños significativos a través de contagios y una barrera de entrada relativamente baja”. Es decir, un sistema así podría ser usado “para la creación de un agente biológico peligroso y luego instruir sobre cómo desplegarlo”.
Los investigadores también indagan en cómo una IA general podría agravar el problema de la manipulación y la propaganda. “En el futuro, los sistemas de IA podrían reducir rápidamente el costo o aumentar la calidad de la persuasión política por parte de actores malintencionados, desestabilizando democracias o sociedades, con consecuencias de gran alcance”, destacan.
La IA generativa actual ya está siendo usada para los ciberataques. Un sistema con capacidades similares a las humanas también empeoraría esa situación. “Capacidades de persuasión muy sofisticadas también podrían permitir a actores malintencionados llevar a cabo operaciones con consecuencias graves al facilitar la ingeniería social sobrehumana, como permitir conversaciones dirigidas a muchas personas a la vez sin fatigarse”, recoge el estudio.
Para prevenir esto, Google DeepMind propone identificar las capacidades peligrosas de esa posible IA general antes de que puedan ser explotadas, restringir el acceso a usuarios confiables, monitorear su uso y entrenar a los sistemas para rechazar solicitudes que podrían generar daños como los citados.
La amenaza silenciosa de la “desalineación”
Más allá de los actores que podrían hacer uso de la tecnología con fines perversos, el informe destaca un peligro aún más sutil: la “desalineación”. Esto ocurre cuando una inteligencia artificial general causa daños sin tener una intención maliciosa, como priorizando el largo plazo por encima del bienestar a corto. Los investigadores ponen como ejemplo una IA diseñada para mejorar una ciudad que podría decidir, basándose en sus cálculos, imponer un plan urbanístico que nadie pidió, manipulando a las personas para que lo acepten porque “es lo mejor”.
La desalineación recoge además un problema que ya se está percibiendo en los modelos de IA generativa, como es que se ven afectados por los sesgos presentes en su programa de entrenamiento. “Hay una cantidad significativa de contenido en Internet (y, por lo tanto, en los corpus de preentrenamiento) que especula que la IA será difícil de alinear. Estos datos pueden inducir una profecía autocumplida a través del razonamiento fuera de contexto: es decir, un sistema de IA aprendería el 'conocimiento' declarativo de que los sistemas de IA poderosos tienden a estar desalineados, lo que los llevaría a actuar de acuerdo con esa expectativa”, avisan.
La desalineación no es solo un engaño intencionado, sino un problema amplio que surge porque las inteligencias artificiales avanzadas pueden desarrollar objetivos propios, difíciles de predecir. Para combatirlo, el informe sugiere entrenar estos sistemas con una supervisión estricta, usando otras inteligencias artificiales para detectar fallas, y establecer barreras de seguridad, como sistemas de monitoreo que actúen si algo sale mal.
Abrir la caja negra
El informe es claro: una IA general puede ser una de las mayores invenciones de la humanidad, pero también una de las más peligrosas. Para que sus beneficios superen a sus peligros, Google DeepMind propone un esfuerzo colectivo. Pide que gobiernos, empresas y sociedad civil trabajen juntos, y deja algunas indicaciones técnicas sobre cómo impedir los escenarios de riesgo.
No obstante, aunque el informe parte de una división de investigación dentro de Google, cabe recordar que la multinacional es uno de los mayores desarrolladores de inteligencia artificial comercial del mundo, por lo que tiene intereses directos en cómo se regula y percibe esta tecnología. Este tipo de advertencias surgen en un contexto en el que se están desarrollando marcos regulatorios donde las empresas dominantes buscan mantener sus ventajas competitivas.
Una de las claves que ofrecen los expertos de la multinacional para impedir que la IA sorprenda con decisiones peligrosas es entender cómo funcionan estos sistemas, un requisito de transparencia que ya está presente en leyes de IA como la europea. Hacer que dejen de ser “cajas negras”. El informe dedica un espacio importante a esta idea, proponiendo técnicas como el “aprendizaje de diccionario” (que descompone los procesos de la IA en partes comprensibles) o los “vectores de dirección” (que identifican patrones en sus decisiones).
“Controlar un sistema y asegurar su seguridad se vuelve más fácil con una mayor comprensión. Como tal, la interpretabilidad es un habilitador clave de muchos otros enfoques para la seguridad de la inteligencia artificial general”, concluyen.
0