Cómo ChatGPT facilita la vida de los delincuentes
La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación, pero también un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación, advirtió este lunes Europol.
Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policial, que publicó este lunes su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.
El modelo actual de acceso público a ChatGPT, capaz de procesar y generar texto similar a una persona, puede responder preguntas sobre una variedad de temas, traducir texto, chatear, generar contenido nuevo y producir código funcional, pero también facilitar actividades delictivas que van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación sexual infantil.
El Laboratorio de Innovación de Europol se sumó a la creciente atención pública prestada a Chat GPT, un chatbot al que ya le aparecieron rivales como Bard (Google) y Bing (Microsoft). Los expertos de Europol investigaron cómo los delincuentes pueden abusar de estos modelos de lenguaje extenso (LLM, en sus siglas en inglés).
Identificaron numerosas áreas de preocupación, pero destacan tres ámbitos relevantes.
La primera es su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, puesto que la capacidad de ChatGPT para redactar textos muy auténticos cambia las reglas del juego: el “phishing” más básico era fácil de detectar dado que usaba mensajes y correos llenos de errores gramaticales y ortográficos, pero ahora es posible hacerse pasar por una organización o individuo de manera realista y con pocos conocimientos de inglés.
“Hasta ahora, este tipo de comunicación engañosa fue algo que los delincuentes tenían que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señala Europol.
Con la tecnología artificial, estos “phishing” y fraude virtual se pueden crear de “manera más rápida, mucho más auténtica y a una escala significativamente mayor”, y permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”, alerta.
“Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo se puede usar para recopilar más información en general que pueda facilitar las actividades terroristas, como, por ejemplo, la financiación del terrorismo o el intercambio anónimo de archivos”, dice.
Además, este tipo de aplicación no solo facilita la perpetración de desinformación, incitación al odio y contenido terrorista en internet, sino que también permitiría a los usuarios “darle una credibilidad fuera de lugar, ya que fue generada por una máquina y, por lo tanto, posiblemente parezca más objetivo para algunos que sí fuera producido por un humano”.
Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercer área de preocupación, puesto que ChatGPT no se limita a generar un lenguaje similar al humano, sino que también es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas en la página web de esta herramienta.
“Es posible crear herramientas básicas para una variedad de propósitos maliciosos. A pesar de que son solo básicas, esto proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima”, subraya la agencia en su informe.
Las medidas de seguridad que impiden que ChatGPT genere un código con posible uso malicioso solo funcionan si la herramienta entiende lo que está haciendo, pero si se le dan indicaciones que se dividen en pasos individuales, es “trivial eludir estas medidas de seguridad”.
Un usuario con conocimientos más avanzados también puede explotar las capacidades mejoradas de ChatGPT para perfeccionar aún más o incluso automatizar modus operandi sofisticados de los ciberdelincuentes.
Imane Rachidi/Agencia EFE.
IG
0