Por qué las contraseñas generadas por IA son un riesgo para la ciberseguridad

CyberSecureFox 🦊

El uso masivo de grandes modelos de lenguaje (LLM) ha llevado a que muchos usuarios y desarrolladores deleguen en la inteligencia artificial la generación de contraseñas. A simple vista, estos secretos parecen robustos: son largos, combinan mayúsculas, minúsculas, números y símbolos especiales. Sin embargo, un estudio reciente de la empresa Irregular demuestra que, detrás de esta apariencia “segura”, se esconden patrones previsibles que reducen drásticamente la entropía y permiten romper estas contraseñas en cuestión de horas.

Estudio de Irregular: análisis de contraseñas creadas por LLM

Los investigadores de Irregular evaluaron tres modelos ampliamente utilizados: ChatGPT, Claude y Gemini. A cada sistema se le solicitaron 50 contraseñas de 16 caracteres, exigiendo la inclusión de letras en ambos casos, dígitos y caracteres especiales, es decir, el formato que muchas políticas consideran el “estándar de oro” en seguridad de contraseñas. Posteriormente, estas cadenas fueron sometidas a verificadores de fortaleza en línea, que las calificaron como muy fuertes y estimaron tiempos de ataque de décadas o siglos, asumiendo un comportamiento aleatorio que, según el estudio, simplemente no existe en la salida de las LLM.

Patrones previsibles en contraseñas de ChatGPT, Claude y Gemini

El análisis detallado reveló que las contraseñas generadas por IA no son realmente aleatorias, sino que siguen plantillas estadísticas. En el caso de Claude, de 50 contraseñas únicamente 30 fueron únicas; las otras 20 se repitieron, y 18 coincidían exactamente carácter por carácter. Además, muchos secretos compartían los mismos primeros y últimos símbolos, lo que sugiere un patrón de inicio y cierre fácilmente modelizable. ChatGPT y Gemini mostraron comportamientos comparables, con estructuras recurrentes en las primeras posiciones. Un dato llamativo fue que ninguna contraseña de Claude incluía caracteres repetidos, lo que, lejos de ser una virtud criptográfica, delata un sesgo de generación aprendido y, por tanto, explotable.

Entropía real: cuán rápido pueden romperse estas contraseñas

Para medir la fortaleza efectiva, el equipo aplicó la entropía de Shannon y un análisis probabilístico basado en las log-probabilidades internas de los propios modelos. La entropía de las contraseñas de 16 caracteres generadas por LLM se situó en torno a 27 bits según la estadística de caracteres, y solo 20 bits al considerar las probabilidades del modelo. En contraste, un generador verdaderamente aleatorio con el mismo conjunto de símbolos alcanzaría aproximadamente 98–120 bits. En términos prácticos, pasar de 220 posibles combinaciones (miles de millones manejables con hardware común) a 2100 o más implica la diferencia entre un ataque en horas con GPU convencionales y un ataque criptográficamente inviable.

Por qué las LLM no sustituyen a un generador criptográfico seguro

La causa raíz es el propio diseño de los modelos de lenguaje. Su objetivo es maximizar la verosimilitud del texto: predicen el siguiente token para que “suene natural” y coherente con los datos de entrenamiento. Una contraseña robusta, en cambio, debe ser lo menos predecible posible. Ajustar parámetros como la temperature o redactar “prompts creativos” no convierte a un LLM en un generador criptográficamente seguro de números aleatorios (CSPRNG), como exigen marcos de referencia como NIST SP 800-63. El estudio también probó el modelo de imágenes Google Nano Banana Pro, generando un sticker con una supuesta contraseña “aleatoria”, y halló patrones equivalentes a los de Gemini, lo que confirma que el formato (texto o imagen) no elimina el problema.

Riesgos prácticos para código, infraestructuras y DevOps

Irregular identificó que estos patrones característicos de contraseñas generadas por IA ya aparecen de forma masiva en repositorios públicos. Búsquedas en GitHub revelan secuencias típicas de LLM en pruebas automatizadas, documentación técnica y archivos de configuración. Esto indica que desarrolladores y equipos DevOps recurren a la IA para crear secretos en proyectos reales. Para un atacante, conocer las preferencias de un modelo concreto permite construir diccionarios especializados y ataques híbridos que reducen drásticamente el espacio de búsqueda, degradando contraseñas “complejas” a objetivos de baja resistencia.

Cómo generar contraseñas seguras y mitigar el riesgo

La recomendación principal es que organizaciones y desarrolladores auditen y reemplacen cualquier contraseña, token, API key, credencial de base de datos o cuenta de servicio que pueda haber sido generada con ChatGPT, Claude, Gemini u otras LLM. Para el uso diario, la práctica más segura es apoyarse en un gestor de contraseñas con generador basado en CSPRNG, empleando contraseñas largas y únicas (idealmente 16–20 caracteres o más para cuentas críticas), sin reutilizarlas entre servicios y habilitando siempre que sea posible la autenticación multifactor (MFA). En entornos de desarrollo, los secretos deben almacenarse en vaults o gestores de secretos dedicados, nunca en código fuente ni en configuraciones expuestas.

Los sistemas de IA son herramientas valiosas para revisar código, documentar y automatizar tareas, pero delegar en ellos la creación de secretos introduce una vulnerabilidad estructural en la gestión de identidades y accesos. Adoptar generadores criptográficamente seguros, revisar las credenciales existentes y reforzar las políticas de autenticación es una prioridad inmediata para cualquier entidad que tome en serio la ciberseguridad. Es el momento oportuno para abandonar la generación de contraseñas por IA, fortalecer la higiene de contraseñas y consolidar una estrategia de protección sostenible a largo plazo.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.