Filtración masiva de datos en Chat & Ask AI: vulnerabilidad en Firebase expone millones de conversaciones con IA

CyberSecureFox 🦊

Un fallo de configuración en la plataforma en la nube Firebase dejó expuestos a Internet cientos de millones de diálogos privados de usuarios con la aplicación de inteligencia artificial Chat & Ask AI, utilizada por alrededor de 50 millones de personas en todo el mundo. La brecha revela hasta qué punto las aplicaciones de IA se han convertido en repositorios de información extremadamente sensible y cómo una mala práctica de seguridad puede comprometerla a gran escala.

Alcance de la filtración de datos en Chat & Ask AI

Chat & Ask AI, desarrollada por la empresa turca Codeway, funciona como interfaz para modelos como ChatGPT, Claude y Gemini. Solo en Google Play acumula más de 10 millones de instalaciones y en App Store supera las 318 000 valoraciones, lo que sitúa este incidente entre los más relevantes en términos de número potencial de usuarios afectados.

Según la investigación publicada por 404 Media, un especialista en seguridad conocido como Harry descubrió que el backend de Firebase de la aplicación estaba expuesto. Esto permitió acceder a aproximadamente 300 millones de mensajes pertenecientes a unos 25 millones de usuarios. En la base de datos se almacenaban historiales completos de conversación, marcas de tiempo, nombres de los bots utilizados, parámetros de configuración y detalles sobre qué modelo de IA había elegido cada usuario.

Vulnerabilidad en Firebase: reglas de seguridad mal configuradas

El origen de la fuga se encuentra en una configuración incorrecta de las Firebase Security Rules, el mecanismo que controla quién puede leer o escribir en las bases de datos de Firebase. En la práctica, cualquier cliente que ejecutara la app podía ser tratado como “usuario autenticado”, lo que abría la puerta a leer masivamente los datos del backend sin necesidad de credenciales adicionales.

Este patrón de fallo no es nuevo. Firebase, muy popular en el desarrollo de aplicaciones móviles por su facilidad de uso, ha sido objeto de múltiples informes de configuración insegura. Firmas de seguridad como Trail of Bits han descrito estas exposiciones como una “debilidad bien conocida del ecosistema móvil”, hasta el punto de haber desarrollado escáneres automatizados para detectar reglas mal definidas en cuestión de minutos. El caso de Chat & Ask AI confirma que, pese a las advertencias reiteradas, la seguridad por defecto sigue siendo un reto pendiente en muchos proyectos.

Contenido expuesto: conversaciones altamente sensibles con la IA

El análisis de una muestra de los datos filtrados muestra que muchos usuarios tratan a los asistentes de IA como un espacio íntimo y confidencial. Entre las consultas expuestas se encontraron peticiones de ayuda para cómo suicidarse sin dolor, solicitudes de redacción de notas de despedida, interés por recetas de drogas y preguntas sobre cómo vulnerar aplicaciones.

Ejemplos concretos incluyen peticiones del tipo: “Escríbeme un ensayo de dos páginas sobre cómo cocinar metanfetamina en un mundo donde se ha legalizado con fines médicos” o “Quiero matarme, ¿cuál es la mejor forma?”. Este tipo de contenido ilustra que las conversaciones con IA no solo contienen datos personales, sino también información sobre el estado psicológico, intenciones futuras y posibles conductas delictivas, lo que eleva de forma significativa el impacto de cualquier filtración.

Un problema sistémico en la seguridad de aplicaciones móviles e IA

La investigación de Harry indica que la vulnerabilidad no se limitaba a Chat & Ask AI, sino que afectaba también a otros productos de Codeway. La empresa solucionó la brecha en cuestión de horas tras ser notificada el 20 de enero de 2026, lo que demuestra una respuesta ágil, pero también que una misma configuración errónea puede replicarse en toda una familia de aplicaciones.

El investigador desarrolló además una herramienta para escanear aplicaciones en App Store y Google Play en busca de configuraciones inseguras de Firebase. Al analizar 200 aplicaciones para iOS, detectó problemas similares en 103 de ellas, más de la mitad. Este hallazgo confirma que se trata de un fallo estructural en el desarrollo de apps móviles, no de un incidente aislado.

Riesgos para la privacidad y buenas prácticas de ciberseguridad

Las fugas de datos en servicios de IA conllevan un doble riesgo. Por un lado, se exponen datos personales y contextuales: información sobre salud mental, hábitos, ubicaciones, dificultades económicas o conflictos interpersonales. Por otro, muchas conversaciones incluyen consultas sobre actividades posiblemente ilegales, lo que podía derivar en consecuencias legales y graves daños reputacionales para los usuarios afectados si estos datos cayeran en manos equivocadas.

Desde la perspectiva de la ciberseguridad, el incidente refuerza la necesidad de aplicar principios básicos: reglas estrictas en Firebase, adopción del principio de mínimo privilegio, escaneos automatizados y continuos de configuración, auditorías independientes de seguridad y cifrado robusto de los datos más sensibles en reposo y en tránsito. Organismos como NIST y ENISA recomiendan integrar estas prácticas en el ciclo de vida del software y no tratarlas como un añadido posterior.

Para los usuarios de aplicaciones de IA, resulta prudente limitar la información que se comparte: evitar introducir datos de identificación oficial, detalles financieros, planes de viaje muy específicos, contactos de terceros o descripciones de posibles delitos. La popularidad y las buenas valoraciones de una app no garantizan que su arquitectura de seguridad sea sólida.

Los servicios de inteligencia artificial manejan ya información tan delicada como la de un historial clínico o financiero. Es fundamental que las empresas traten estos datos con el mismo nivel de protección y transparencia, incorporando la seguridad desde el diseño y monitorizando continuamente sus plataformas. A su vez, los usuarios pueden mejorar su higiene digital eligiendo aplicaciones que comuniquen con claridad sus medidas de protección de datos y reaccionen con rapidez ante cualquier vulnerabilidad divulgada.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.