La evolución de los ataques de ingeniería social a través de la IA Generativa
En la era digital, cuando la Inteligencia Artificial (IA) comienza a alcanzar cotas insospechadas, surgen nuevas y preocupantes amenazas que despiertan el interés de los ciberdelincuentes.
Según los datos recabados en el sector, se están desarrollando herramientas, como WormGPT, que se valen de la IA Generativa para tejer engaños personalizados y ganarse la confianza de las víctimas utilizando la información recabada en redes sociales, web o documentos públicos.
IA Generativa y la ingeniería social
La IA Generativa está dando lugar a múltiples desarrollos en diversos ámbitos, y la ciberseguridad no es una excepción. No daríamos abasto si tuviéramos que mencionar todas las posibilidades que están siendo evaluadas en torno al uso de la IA en ciberseguridad.
Para facilitar ese uso, no hace demasiado, Meta AI liberó el código fuente de su aplicación Llama-2 en investigaciones y entornos comerciales. Algo similar (aunque en menor medida) ha ocurrido con Open AI o incluso con Gemini de Google.
Estas posibilidades ciertamente están impulsando el desarrollo de aplicaciones que podrán ser encapsuladas en otros programas, incluso para actuar como elemento de control de terceros.
Por ejemplo, con ellas se podrán recibir logs de sistemas, analizar los datos y sugerir acciones dirigidas hacia objetivos específicos en función de los resultados que la herramienta proporcione, utilizando durante todo el proceso consultas en lenguaje natural.
Sin embargo, este no será su único uso. También las amenazas basadas en técnicas de ingeniería social encontrarán en la IA un excelente escenario de experimentación.
Los envíos de mensajes personalizados servirán para poner en serias dificultades a las herramientas que empleamos para protegernos del spam, el phishing o de cualquier otra forma de suplantación de la identidad.
Y es que es probable que en la lucha contra estas nuevas técnicas de ingeniería social las soluciones comerciales comiencen a verse desbordadas.
Aplicaciones, por ejemplo, que analizan correos electrónicos en función de diferentes parámetros necesitarán actualizarse. Sus algoritmos, complejos y valiosos, habrán de incorporar técnicas que detecten nuevos patrones de comportamiento.
Desenmascarar a WormGPT
Regresando a WormGPT, el principal problema con las amenazas que genere radicará en su capacidad de personalizar los mensaje en función del destinatario. Con ello se dificultará su detección cuando, por ejemplo, lo que se analice sea la repetitividad de un mismo mensaje a diferentes víctimas.
Asimismo, los errores gramaticales contenidos en los mensajes, que a menudo eran indicadores de posibles engaños, ahora serán menos habituales, dando lugar a dudas a la hora de verificar la identidad del remitente.
Si a ello le unimos que el atacante incluirá algún detalle que refleje ciertos conocimientos sobre los intereses muy particulares de sus víctimas estaremos probablemente ante ataques dirigidos difíciles de clasificar.
Otros canales de comunicación
Como fuente de peligro adicional, las amenazas no se limitarán solo a los correos electrónicos. No en vano, las técnicas de ingeniería social también emplean otras formas de comunicación en línea.
Hace no demasiado tiempo descubríamos que. los delincuentes podían utilizar herramientas colaborativas para engañar a las víctimas y propagar malwares en herramientas como Microsoft Teams.
Este es un escenario emergente, aún no completamente desarrollado, pero que puede representar nuevas amenazas.
Las deepfakes junto con las herramientas habituales para la descarga de malwares pueden convertirse en verdaderos problemas de ciberseguridad a medida que se extiendan en redes sociales, entornos colaborativos o soluciones de mensajería tradicional.
IA “buena” versus IA “mala”
Los fabricantes necesitarán pues desarrollar herramientas específicas para identificar todas estas circunstancias, posiblemente siguiendo un enfoque similar al que aplican en otros escenarios de comunicación, es decir, analizando, evaluando y decidiendo si un mensaje es lícito, sospechoso o sencillamente malicioso.
Y para eso también la IA puede ser de utilidad. De algún modo esto es lo que catalogaríamos como la “IA buena” frente a la nueva “IA mala“.
Si se piensa un poco, este escenario futurista vislumbraría una competencia entre ambas caras de una misma moneda. La primera buscando desenmascarar a la segunda, que a su vez aprenderá de esos intentos y se adaptará para evitar su detección.
En el fondo, se trata de un ciclo continuo similar al que se plantea en ciberseguridad y donde los defensores a menudo corren detrás de los atacantes.
Conclusión
WormGPT es un buen ejemplo de la tendencia en el uso malicioso de la IA. Representa una nueva y peligrosa evolución de los ataques de ingeniería social; una herramienta que utilizará la IA Generativa para personalizar mensajes de engaño y con ello ganarse la confianza de las víctimas.
Frente a esta amenaza, si no se reacciona pronto, las aplicaciones actuales de ciberseguridad pueden quedar obsoletas.
Será necesario desarrollar nuevos parámetros de detección; nuevas formas de identificar, por ejemplo, si algo ha sido escrito por una IA y actuar en consecuencia. En definitiva, se necesitará completar un continuo proceso de ejecución del Test de Turing, aunque realizado contradictoriamente también por una IA.
La batalla entre la “IA buena” y la “IA mala” pues continuará, y solo con tecnología, intuición y una vigilancia constante podremos mantener a raya a esta nueva generación de amenazas.