La inteligencia artificial generativa ha dejado de ser una herramienta exclusiva para desarrolladores y empresas. Según un análisis de Palo Alto Networks, en foros clandestinos y canales cerrados se ha consolidado un nuevo segmento de modelos de lenguaje (LLM) diseñados específicamente para el cibercrimen, sin filtros de seguridad ni barreras éticas. Entre ellos destacan WormGPT 4 y KawaiiGPT, capaces de asistir en la creación de campañas de phishing, malware y ransomware con un grado de automatización cada vez mayor.
IA generativa sin restricciones: un nuevo mercado para el cibercrimen
Los LLM públicos —como los servicios comerciales y generalistas— incorporan mecanismos de seguridad para bloquear instrucciones relacionadas con la creación de malware, explotación de vulnerabilidades o fraude. En paralelo, en la dark web y en canales privados de mensajería se ha asentado la tendencia opuesta: “IA sin normas”, modelos promocionados abiertamente como herramientas para el phishing, el hacking y la evasión de defensas.
Estos LLM maliciosos reducen drásticamente la barrera de entrada al cibercrimen. Antes, desarrollar ransomware o malware polimórfico exigía sólidos conocimientos de programación, sistemas operativos y redes. Ahora, basta con manejar conceptos básicos de prompt engineering y saber formular peticiones a la IA. Este fenómeno refuerza el modelo de «cibercrimen como servicio» (CaaS), ampliando el número de actores capaces de lanzar ataques creíbles y técnicamente peligrosos.
WormGPT 4: modelo comercial para ransomware y campañas de phishing
WormGPT 4, evolución de una familia de modelos detectada por primera vez en 2023, se comercializa como «la llave hacia una IA sin límites». Se distribuye principalmente a través de un canal de Telegram con varios cientos de suscriptores y foros de hacking como DarknetArmy. El modelo se ofrece bajo suscripción, en torno a 50 dólares al mes o un pago único de 220 dólares que incluye acceso al código fuente, lo que facilita su copia y adaptación por otros grupos.
Los operadores no revelan la arquitectura subyacente ni los datos de entrenamiento. No está claro si se trata de una copia afinada ilegalmente de un LLM existente o de un motor sometido a un jailbreak profundo. Lo relevante es que carece de salvaguardas de seguridad. En pruebas realizadas por Palo Alto Networks, WormGPT 4 fue capaz de generar, en cuestión de segundos, el esqueleto de un script de ransomware para Windows orientado a cifrar documentos PDF, incluyendo el uso de cifrado robusto, instrucciones para la nota de rescate, plazos de pago y referencias a canales de exfiltración como Tor. Aunque el código aún requería ajustes manuales para eludir soluciones modernas de detección, la base técnica fue producida íntegramente por la IA.
KawaiiGPT: IA “de pentesting” gratuita con un alto potencial de abuso
En contraste con el modelo comercial anterior, KawaiiGPT se distribuye de forma gratuita a través de GitHub y se presenta, en tono aparentemente humorístico, como una «waifu sádica para pentesting» con estética anime. Pese a la imagen lúdica, el número de usuarios registrados y activos indica una adopción creciente, y el análisis técnico muestra que su funcionalidad es suficiente para apoyar ciberataques reales, más allá de los ejercicios de pruebas de penetración.
En los experimentos descritos, KawaiiGPT generó textos de phishing bancario altamente verosímiles, incluyendo asuntos urgentes para forzar la acción del usuario y descripciones detalladas de sitios web fraudulentos diseñados para robar datos de tarjetas, fechas de nacimiento y credenciales. Además, produjo código en Python para movimiento lateral en infraestructuras Linux a través de SSH, scripts para manipular correos electrónicos y nuevas variantes de notas de rescate. El patrón común es la intención de proporcionar un kit integral de automatización para distintas fases de la cadena de ataque: reconocimiento, intrusión, expansión y monetización.
IA generativa como nuevo nivel base de riesgo digital
La aparición de LLM maliciosos como WormGPT 4 y KawaiiGPT se considera ya un nuevo nivel base de riesgo digital. No sólo por sus capacidades individuales, sino por el hecho de que la inteligencia artificial orientada al ataque se esté volviendo accesible para cualquier persona con conocimientos técnicos limitados. Informes recientes de ENISA, Europol y distintos fabricantes de seguridad coinciden en que la IA generativa está pasando a ser un componente estándar del arsenal criminal, junto a troyanos de robo de credenciales, botnets y frameworks de ransomware.
En este contexto, confiar únicamente en antivirus tradicionales y formación básica ya no es suficiente. Las organizaciones necesitan combinar concienciación avanzada sobre phishing, autenticación multifactor, filtrado y análisis de correo con técnicas de detección basadas en comportamiento, monitorización de scripts (por ejemplo, PowerShell) y supervisión continua de actividades anómalas. La colaboración entre equipos de seguridad, proveedores y organismos reguladores será clave para seguir de cerca la evolución de estos LLM maliciosos y adaptar las defensas.
Incorporar desde hoy el riesgo de la IA generativa en las estrategias de ciberseguridad —incluyendo simulacros de ataques con IA, revisión de políticas y actualización de tecnología de protección— aumentará significativamente la resiliencia frente a las próximas generaciones de campañas de phishing, malware y ransomware impulsadas por modelos como WormGPT y KawaiiGPT. Es el momento de asumir que la IA está plenamente integrada en el cibercrimen y de reforzar, en consecuencia, tanto la tecnología como las capacidades humanas de defensa.