Llevamos mucho tiempo advirtiendo del auge de los ataques informáticos apoyados por IA. Y cada vez hay más herramientas diseñadas con este objetivo. Como los ha llamado Palo Alto Networks, estos ChatGPT del cibercrimen son un peligro.
El último informe de Unit 42, la división de inteligencia de amenazas de Palo Alto Networks, detalla cómo WormGPT 4 y KawaiiGPT están mejorando los ciberataques a un nivel completamente distinto, tanto por su potencia como por su accesibilidad.
Así son las IAs utilizadas por el cibercrimen
Son modelos de lenguaje sin filtros, sin frenos éticos y diseñados expresamente para generar ataques informáticos con una rapidez y una sofisticación que antes solo estaban al alcance de grupos muy experimentados. La inteligencia artificial ofensiva ya no es un escenario futurista, y es un peligro que multiplica tanto la velocidad como el volumen de los ataques.
Palo Alto Networks subraya que el verdadero problema radica en la facilidad con la que automatizan actividades criminales. En cuestión de segundos son capaces de redactar campañas completas de phishing, crear código malicioso funcional, generar scripts de movimiento lateral, elaborar notas de ransomware y ofrecer instrucciones detalladas para completar un ataque.
Todo esto permite que personas sin conocimiento técnico alguno puedan ejecutar acciones que hasta hace poco requerían formación especializada. El dilema del doble uso de la IA se materializa en su forma más pura: una herramienta creada para ayudar también puede destruir.
El informe de Unit 42 describe con claridad cómo funcionan estas plataformas. WormGPT 4 opera bajo un modelo de suscripción a precios sorprendentemente bajos: desde 43 euros al mes hasta unos 190 euros por acceso ilimitado. Se distribuye a través de Telegram, donde ya tiene una comunidad con más de 500 suscriptores que intercambian técnicas, resultados y mejoras. Un servicio profesionalizado del cibercrimen en todo regla.
Y ojo, que KawaiiGPT plantea un riesgo aún mayor. Es gratuito, de código abierto y puede instalarse desde GitHub en minutos. Su facilidad de acceso lo convierte en una puerta de entrada peligrosa para usuarios inexpertos que, con apenas un par de líneas escritas, pueden generar phishing dirigido, herramientas de exfiltración o scripts listos para infiltrarse en redes corporativas.
La combinación de rapidez y potencia hace que estos modelos sean extremadamente peligrosos. Un ataque que antes podía requerir horas de preparación ahora se genera en minutos. Y su capacidad para producir contenido convincente, tanto en lenguaje humano como en código, eleva la tasa de éxito y complica la detección.
Según alerta Unit 42, estos modelos ya permiten crear campañas masivas de forma casi instantánea y con un nivel de personalización que dificulta enormemente la labor de defensa de empresas y particulares.
Por último Palo Alto Networks insiste en que las organizaciones deben replantear su estrategia de seguridad. Hay que vigilar de cerca el uso de la inteligencia artificial dentro de la empresa, controlar accesos, reforzar la protección del correo y la navegación, formar a los empleados de manera constante y establecer normas internas claras sobre el uso de herramientas con IA. ¿El objetivo? Poder anticiparse, crear barreras y evitar que modelos como WormGPT 4 o KawaiiGPT encuentren fisuras que explotar.