Gartner urge a bloquear navegadores con IA por riesgos críticos de ciberseguridad

CyberSecureFox 🦊

Los navegadores con inteligencia artificial integrados se están popularizando en entornos corporativos por su capacidad para resumir páginas, automatizar tareas y asistir en tiempo real. Sin embargo, un nuevo informe de Gartner, titulado “Cybersecurity Should Block AI Browsers for Now”, recomienda a las organizaciones restringir o bloquear temporalmente estos navegadores con IA hasta evaluar en profundidad sus implicaciones de seguridad.

Qué son los navegadores con IA y por qué incrementan la superficie de ataque

Gartner define los navegadores con IA como soluciones tipo Perplexity Comet o ChatGPT Atlas que combinan un navegador web tradicional con una barra lateral basada en grandes modelos de lenguaje (LLM). Estos asistentes pueden leer el contenido de las pestañas abiertas, analizar el historial de navegación y ejecutar acciones en nombre del usuario, desde rellenar formularios hasta navegar por portales internos.

Según los analistas Dennis Xu, Evgeny Mirolyubov y John Watts, la configuración por defecto de estos productos está orientada casi exclusivamente a la comodidad del usuario y no a la seguridad. Esto implica una recopilación de datos muy amplia, permisos excesivos para los agentes de IA y un control limitado desde las políticas corporativas tradicionales.

Riesgo de fugas de datos por barras laterales y backends en la nube

El principal vector técnico de riesgo señalado por Gartner es cómo gestionan los navegadores con IA los datos que ven en pantalla. Con frecuencia, la barra lateral envía al backend en la nube del proveedor el contenido activo de la web, el historial del navegador y la información de las pestañas abiertas. En un entorno empresarial, esto puede incluir secretos comerciales, datos personales de clientes, contratos, dashboards internos o correos confidenciales.

La recomendación es realizar una evaluación formal de seguridad del backend de IA: ubicación del almacenamiento, mecanismos de cifrado, retención de datos, uso para reentrenar modelos y quién puede acceder a esa información. Si el nivel de protección resulta insuficiente o poco transparente, Gartner sugiere bloquear la instalación y el uso de navegadores con IA en toda la organización.

Incluso cuando el servicio supera la evaluación, se aconseja advertir a los usuarios de que todo lo que se muestra en el navegador puede terminar en la nube del proveedor. Una práctica prudente es no trabajar con información sensible en pestañas donde la barra de IA esté activa o deshabilitarla por completo en segmentos de red críticos, como sistemas financieros o entornos de I+D.

Agentes de IA en el navegador: de la ayuda automatizada a nuevas técnicas de ataque

Otro foco de preocupación son las capacidades de agente de los navegadores con IA, es decir, la posibilidad de que el asistente ejecute acciones automáticamente en Internet con las credenciales del usuario. Esto incluye hacer clic en enlaces, rellenar formularios, confirmar pedidos o cambiar configuraciones sin intervención explícita en cada paso.

Prompt injection, errores de la IA y robo de credenciales

Gartner destaca varios escenarios de riesgo. En primer lugar, las ataques de prompt injection indirecto: un atacante introduce instrucciones ocultas en una página web para que el agente de IA, al analizarla, cambie su comportamiento, divulgue datos confidenciales o interactúe con recursos maliciosos. Este tipo de ataque ya ha sido demostrado por múltiples investigaciones académicas y por proveedores de seguridad en asistentes basados en LLM.

En segundo lugar, los errores de razonamiento de los modelos. Las LLM pueden “alucinar” y tomar decisiones equivocadas. En un chatbot clásico esto se traduce en una respuesta incorrecta; en un navegador con IA se puede convertir en acciones reales: firmar formularios legales de forma errónea, introducir datos contables inexactos o realizar operaciones financieras equivocadas.

En tercer lugar, se incrementa el riesgo de phishing y compromiso de credenciales. Si el agente tiene acceso a nombres de usuario y contraseñas, puede ser redirigido a un sitio de phishing que imite un portal corporativo y autocompletar las credenciales de forma automática, facilitando el secuestro de cuentas críticas sin que el empleado sea plenamente consciente.

Uso indebido por parte de empleados y errores en compras

El informe también subraya el componente humano. Los trabajadores pueden usar el navegador con IA para automatizar tareas obligatorias pero rutinarias. Un ejemplo típico es dejar que la IA “haga” por ellos el curso de formación en ciberseguridad. El sistema registrará la formación como completada, pero el nivel real de concienciación de la plantilla disminuirá.

En procesos de compras, un agente de IA que rellena formularios puede cometer errores sutiles que desemboquen en pedidos incorrectos, reservas de viajes equivocados o configuraciones inapropiadas de servicios. En grandes organizaciones, estos fallos se amplifican y se traducen en costes financieros, ineficiencias operativas y posibles conflictos contractuales.

Medidas de protección recomendadas por Gartner para navegadores con IA

Gartner considera que los navegadores con IA son, a día de hoy, demasiado arriesgados para un uso libre en las empresas sin un análisis previo estructurado. Entre las medidas propuestas destacan:

• Evaluación de riesgos específica: analizar cada navegador con IA y su backend, incluyendo contratos, ubicación de datos, cifrado, auditorías y cumplimiento normativo (por ejemplo, RGPD o leyes sectoriales).

• Definir escenarios de uso prohibidos: vetar el uso de agentes de IA con sistemas de negocio críticos, plataformas de pagos, portales de compras, cuentas con privilegios elevados o información clasificada.

• Limitar permisos de los agentes: restringir el acceso del navegador con IA al correo electrónico corporativo, a sistemas financieros y a consolas administrativas internas, aplicando el principio de mínimo privilegio.

• Endurecer las políticas de privacidad: reducir al mínimo los datos enviados a la nube, desactivar el almacenamiento persistente cuando sea posible y exigir controles de acceso robustos y trazabilidad.

• Formar y sensibilizar a los empleados: explicar riesgos específicos de las herramientas con IA, qué datos nunca deben exponerse con la barra de IA activa y cómo identificar comportamientos anómalos de los agentes.

El posicionamiento de Gartner envía un mensaje claro: las organizaciones que gestionen de forma proactiva los riesgos de los navegadores con IA —mediante políticas, controles técnicos y formación— estarán en mejor situación para aprovechar el potencial de la inteligencia artificial sin comprometer la ciberseguridad, la privacidad ni el cumplimiento regulatorio. Adoptar ahora una estrategia prudente y basada en riesgos permitirá incorporar estas tecnologías de forma más segura cuando el ecosistema madure y los fabricantes fortalezcan sus controles de seguridad.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.