La evolución de la ingeniería social a través de la IA generativa
Habrá una batalla entre la IA ‘buena’ y la IA ‘mala’, y solo con una vigilancia constante se podrán mantener a raya las amenazas
En la era digital, donde la inteligencia artificial (IA) comienza a alcanzar cotas insospechadas, surgen nuevas y preocupantes amenazas que despiertan el interés de los ciberdelincuentes. Tal es el caso de la conocida como WormGPT. Según los datos recabados en el sector, esta sofisticada herramienta de ingeniería social se vale de la IA generativa para tejer engaños personalizados y ganarse la confianza de las víctimas utilizando la información recabada en redes sociales, web o documentos públicos.
La IA generativa ha dado lugar a múltiples desarrollos en diversos ámbitos y sectores, y la ciberseguridad no es una excepción. No daríamos abasto si tuviéramos que mencionar todas las posibilidades que están siendo evaluadas en torno al uso de IA en el ámbito de la ciberseguridad.
Solo a modo de ejemplo, recientemente, Meta AI, del grupo de Mark Zuckerberg, liberó el código fuente de su aplicación LlaMA-2, para permitir su uso en investigaciones y entornos comerciales. Esta posibilidad ciertamente facilitará el desarrollo de aplicaciones que puedan ser encapsuladas en otros programas, incluso para actuar como elemento de control de terceros.
Por ejemplo, con esta tecnología se podrán recibir logs de sistemas, analizar los datos y sugerir acciones dirigidas hacia objetivos específicos en función de sus resultados, simplemente con interfaces más propias del lenguaje natural.
Sin embargo, este no será su único uso. Las amenazas basadas en técnicas de ingeniería social encontrarán en la IA un excelente escenario de experimentación. Los envíos de mensajes personalizados que no respondan a patrones concretos servirán para poner en serias dificultades a las herramientas que empleamos para protegernos del spam, el phishing o de cualquier otra forma de suplantación de la identidad.
Y es que, en la lucha contra estas nuevas técnicas de ingeniería social, las soluciones comerciales comienzan a verse desbordadas. Aplicaciones, por ejemplo, que analizan correos electrónicos en función de diferentes parámetros, necesitarán actualizarse. Sus algoritmos, complejos y valiosos, habrán de incorporar técnicas que detecten nuevos patrones de comportamiento.
Desenmascarar a WormGPT
Como hemos mencionado, el principal problema con las amenazas generadas por WormGPT radica en su capacidad de personalizar cada mensaje en función del destinatario. Con ello se dificulta su detección cuando, por ejemplo, lo que se utiliza como referencia es la repetitividad de un mismo mensaje a diferentes víctimas. Asimismo, los errores gramaticales contenidos en estos mensajes, que a menudo eran indicadores de posibles engaños, ahora serán menos habituales, lo que dará lugar a dudas sobre la verificación de identidad del remitente.
Si a ello le unimos que el atacante incluirá algún detalle que refleje ciertos conocimientos sobre los intereses muy particulares de sus víctimas, estaremos ante ataques difíciles de clasificar.
Sin embargo, las amenazas no se limitarán solo a los correos electrónicos. No en vano, las técnicas de ingeniería social también son válidas en otras formas de comunicación en línea.
Hace unos días descubríamos que los delincuentes podían utilizar herramientas colaborativas para engañar a las víctimas y propagar malwares en herramientas como Microsoft Teams.
Este es un escenario aún no desarrollado que puede presentar nuevas amenazas. Las deepfakes, junto con las herramientas habituales de envío de malwares pueden convertirse en un verdadero foco de problemas de ciberseguridad a medida que se extiendan en redes sociales, herramientas colaborativas o soluciones de mensajería tradicional.
IA ‘buena’ versus IA ‘mala’
Los fabricantes necesitarán desarrollar herramientas específicas de filtrado para estas plataformas, posiblemente con un enfoque similar al que siguen en otros escenarios de comunicación, es decir, analizar y decidir si un mensaje es sospechoso o malicioso.
Y para eso también la IA puede ser de utilidad. Es lo que catalogaríamos como la IA buena.
Si se piensa un poco, este escenario futurista vislumbra una competencia entre la IA buena y la IA mala. La primera buscará desenmascarar a la segunda, que a su vez aprenderá de esos intentos y se adaptará para evitar la detección.
Se trata de un ciclo continuo similar al que se plantea en ciberseguridad, y donde los defensores a menudo corren detrás de los atacantes.
WormGPT es un buen ejemplo de esa tendencia en el uso de la IA. Representa una nueva y peligrosa evolución de la ingeniería social; una herramienta que utilizará la IA generativa para personalizar mensajes de engaño y ganarse la confianza de las víctimas.
Frente a esta amenaza, si no se reacciona pronto, las aplicaciones actuales de ciberseguridad pueden quedar obsoletas. Será necesario desarrollar nuevos parámetros de detección; nuevas formas de detectar si algo ha sido escrito por una IA y actuar en consecuencia. En definitiva, se necesitará completar un continuo proceso de ejecución del test de Turing, aunque hecho, contradictoriamente, también por una IA.
La batalla entre la IA buena y la mala continuará, y solo con avances tecnológicos y una vigilancia constante se podrá mantener a raya a estas nuevas amenazas.
Juanjo Galán es ‘business strategy’ de All4Sec
Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días