La inteligencia artificial se ha convertido en un componente crítico de la infraestructura digital corporativa, pero su protección avanza mucho más despacio que su adopción. El informe AI and Adversarial Testing Benchmark Report 2026 de Pentera, basado en una encuesta a 300 CISO y responsables sénior de ciberseguridad en EE. UU., revela una brecha preocupante: la mayoría de organizaciones intentan asegurar sus sistemas de IA con herramientas pensadas para entornos tradicionales, no para la era de la inteligencia artificial generativa.
Falta de visibilidad: la “IA en la sombra” complica la gestión del riesgo
Las soluciones de inteligencia artificial rara vez funcionan de forma aislada. Se integran con la nube, sistemas IAM, aplicaciones de negocio, canalizaciones de datos y plataformas analíticas. La responsabilidad se reparte entre equipos de desarrollo, datos, operaciones y seguridad, lo que diluye el control centralizado sobre el uso real de la IA.
Según Pentera, el 67% de los CISO reconoce tener solo una visibilidad limitada de cómo se utiliza la IA en su organización, y ninguno declara disponer de una transparencia total. Casi todos admiten la existencia de “shadow AI”: uso de herramientas de IA no autorizadas o poco controladas por áreas de negocio y usuarios finales.
Sin un inventario de activos de IA, cuestiones básicas quedan sin respuesta: qué cuentas y tokens usan los servicios de IA, a qué datos acceden, cómo se comportan si fallan los controles, quién responde de su actualización y monitorización. En estas condiciones, puede haber políticas de seguridad de IA sobre el papel, pero en la práctica no cubren una parte significativa de los escenarios reales de uso.
El principal obstáculo no es el presupuesto, sino la falta de competencias en seguridad de IA
Pese al interés de los consejos de administración, el problema dominante no es financiero. Solo el 17% de los CISO señala la falta de presupuesto como barrera principal. El reto más citado es la escasez de especialistas y metodologías maduras para evaluar riesgos específicos de sistemas de IA.
La inteligencia artificial introduce nuevos comportamientos y vectores de ataque difíciles de encajar en los marcos clásicos de ciberseguridad. Entre ellos destacan:
- Autonomía operativa: agentes de IA que toman decisiones y ejecutan acciones en nombre de usuarios o servicios.
- Accesos indirectos: obtención de datos o funciones sensibles a través de cadenas de integraciones, plugins y APIs conectadas a modelos.
- Altos privilegios técnicos: por ejemplo, agentes de LLM con acceso a repositorios de código o a almacenes de datos corporativos.
- Amenazas específicas de IA: envenenamiento de datos (data poisoning), robo de modelos, extracción de datos vía respuestas del modelo o prompt injection (manipulación maliciosa de instrucciones).
Marcos como NIST AI RMF o la norma ISO/IEC 42001 empiezan a ofrecer guías para gestionar el riesgo de IA, pero en la mayoría de las organizaciones aún no se han convertido en estándar. La integración sistemática de la seguridad de la inteligencia artificial en el ciclo de vida de desarrollo (SDLC), pruebas de red teaming para IA y ensayos adversariales siguen siendo excepciones, no la norma.
Dependencia de controles heredados: el 75% intenta proteger la IA con herramientas tradicionales
Ante la falta de prácticas maduras y soluciones específicas de seguridad de IA, muchas empresas amplían su perímetro de protección clásico. De acuerdo con Pentera, el 75% de los CISO utiliza herramientas ya existentes —como EDR, protección de aplicaciones, seguridad cloud o soluciones de seguridad de APIs— para proteger sus sistemas de IA, mientras que solo un 11% declara contar con soluciones de seguridad especializadas para IA.
Por qué la infraestructura de IA es diferente a la infraestructura TI clásica
La ciberseguridad tradicional se centra en vulnerabilidades de componentes (host, red, aplicación). En cambio, la seguridad de la inteligencia artificial debe considerar el comportamiento dinámico del modelo en producción. El mismo sistema de IA puede ser relativamente seguro con acceso limitado a datos y extremadamente riesgoso si se le otorgan privilegios amplios. Muchos controles heredados no son capaces de distinguir este matiz.
La complejidad aumenta con los servicios de IA externos (modelos SaaS, APIs públicas de LLM). Parte del riesgo se traslada al proveedor, pero sin una evaluación rigurosa de la cadena de suministro, acuerdos de seguridad sólidos y controles de privacidad, la organización queda expuesta a fugas de datos, compromisos de modelos y vulnerabilidades en librerías y marcos de terceros.
Pasos prácticos para reforzar la seguridad de la inteligencia artificial
El análisis de Pentera muestra que el problema no es falta de interés, sino carencias estructurales: poca visibilidad, déficit de competencias y ausencia de pruebas adversariales sistemáticas. Para reducir esta brecha, las empresas pueden priorizar varias líneas de acción:
- Inventario de activos de IA. Catalogar todas las soluciones de IA: modelos internos, servicios gestionados, integraciones con LLM externos y usos no oficiales en las unidades de negocio.
- Gobierno y roles claros. Asignar propietarios productivos, técnicos y de seguridad para cada sistema de IA, con responsabilidades explícitas sobre riesgos, cambios y monitorización.
- Políticas de seguridad de IA y control de accesos. Aplicar el principio de mínimo privilegio a los modelos y agentes de IA, limitar el acceso a datos sensibles y definir normas estrictas para el uso de servicios externos de inteligencia artificial.
- Pruebas adversariales y red teaming para IA. Evaluar de forma continua la resistencia de los sistemas de IA frente a prompt injection, exfiltración de datos a través de las respuestas del modelo, bypass de lógica de negocio y manipulación de salidas.
- Formación específica en seguridad de IA. Capacitar a desarrolladores, ingenieros de datos, equipos de MLOps y profesionales de ciberseguridad en amenazas propias de la IA y en mejores prácticas de mitigación.
A medida que la inteligencia artificial se consolida como la “nueva capa nerviosa” del negocio digital, tratar su seguridad como un complemento opcional deja de ser aceptable. Las organizaciones que construyan desde ahora una estrategia sólida de seguridad de la inteligencia artificial —basada en visibilidad, gobierno, pruebas especializadas y adopción de estándares internacionales— no solo reducirán de forma significativa su superficie de ataque, sino que también ganarán una ventaja competitiva: podrán desplegar nuevos casos de uso de IA de forma más rápida, segura y con mayor confianza que aquellos competidores que sigan confiando exclusivamente en controles heredados.