Un jurado federal en Estados Unidos declaró culpable al exingeniero de Google Linwei Ding por el robo de datos confidenciales sobre la infraestructura de inteligencia artificial de la compañía y su transferencia a entidades vinculadas con China. El caso se ha convertido en un ejemplo paradigmático de espionaje económico en el ámbito de los supercomputadores de IA y pone de relieve hasta qué punto la amenaza interna (insider threat) puede comprometer incluso a los mayores gigantes tecnológicos.
Espionaje económico y robo de secretos comerciales en la infraestructura de IA
Según la acusación, Ding se enfrentó a 14 cargos penales: siete por espionaje económico y siete por robo de secretos comerciales. Cada cargo relacionado con secretos comerciales conlleva hasta 10 años de prisión, mientras que los de espionaje económico pueden alcanzar hasta 15 años por cada uno. El jurado lo declaró culpable en todos los puntos, a la espera de sentencia definitiva.
Ding se incorporó a Google en 2019 y obtuvo acceso a información altamente sensible sobre la infraestructura interna de inteligencia artificial, incluyendo la arquitectura de supercomputadores, clústeres de cómputo y soluciones personalizadas de machine learning. Este tipo de conocimiento es hoy uno de los activos estratégicos más valiosos en la competición global por el liderazgo en IA y computación de alto rendimiento.
Cómo se produjo el robo de datos de la infraestructura de IA de Google
Las investigaciones indican que, entre mayo de 2022 y abril de 2023, Ding extrajo más de 2.000 páginas de documentación interna relacionada con la infraestructura de IA de Google. Los documentos detallaban arquitecturas de capacidad de cómputo, pilas de software, orquestación de cargas y componentes técnicos clave para diseñar y escalar supercomputadores de inteligencia artificial.
Para eludir los sistemas de monitorización y controles de seguridad, el ingeniero ideó un proceso en varios pasos. Primero copiaba fragmentos de documentos internos a la aplicación Apple Notes en su MacBook corporativo; después convertía esas notas en archivos PDF y los subía a una cuenta personal de Google Cloud. Este patrón de uso imitaba una actividad de usuario aparentemente normal, dificultando su detección por soluciones tradicionales de prevención de fuga de datos (DLP) y por controles centrados solo en el perímetro.
Vínculos con empresas chinas y programas de talento estatales
Paralelamente a su empleo en Google, Ding mantenía relación con al menos dos compañías tecnológicas chinas. En una actuaba como director de tecnología (CTO) y en 2023 fundó Shanghai Zhisuan Technology Co, de la que se convirtió en director ejecutivo. A los inversores les presentó el objetivo de crear una infraestructura de IA «similar a la de Google», un mensaje que indica una intención clara de monetizar conocimientos y tecnología internos.
El ingeniero no declaró a Google ni esta actividad empresarial ni sus viajes frecuentes a China. Para encubrir sus ausencias físicas en la oficina, pedía a un compañero que pasara su tarjeta de acceso en los tornos del edificio, generando un registro falso de presencia. La situación salió a la luz cuando la empresa tuvo conocimiento de una presentación pública de Ding ante potenciales inversores en China.
Posteriormente se vincularon estos hechos con su participación en una “programa de talentos” financiado por el gobierno chino, en el que manifestaba su intención de «ayudar a China a construir una infraestructura de cómputo a nivel internacional». La investigación apunta a que planeaba apoyar a entidades estatales en el desarrollo de un supercomputador de IA y de chips especializados para aprendizaje automático, lo que ampliaba el impacto potencial desde el ámbito comercial al estratégico y geopolítico.
La amenaza interna en ciberseguridad corporativa de IA
El caso Ding ilustra varias debilidades típicas en ciberseguridad corporativa. En primer lugar, la amenaza interna: un usuario legítimo con altos privilegios que abusa de sus permisos. A diferencia de un atacante externo, el insider opera con credenciales válidas, lo que complica la detección basada en firmas o en bloqueos perimetrales.
Informes como el Verizon Data Breach Investigations Report sitúan a los actores internos en torno al 20 % de las brechas de datos analizadas, mientras que estudios como los del Ponemon Institute estiman el coste medio anual de incidentes de insider threat en más de 15 millones de dólares por organización. Estos datos confirman que se trata de un riesgo recurrente y de alto impacto, especialmente en sectores con fuerte concentración de propiedad intelectual, como la IA y los semiconductores.
En segundo lugar, el incidente muestra los límites de una seguridad centrada exclusivamente en el dispositivo corporativo o en el perímetro de red. El uso de aplicaciones aparentemente inocuas (como notas) y la conversión a PDF son comportamientos habituales de cualquier empleado, por lo que solo un análisis de comportamiento y contexto —por ejemplo, picos anómalos de exportación de documentos o accesos fuera de patrón— habría permitido levantar alertas tempranas.
Cómo proteger secretos comerciales y supercomputadores de IA
1. Control de acceso reforzado a infraestructura de IA. La documentación crítica, código fuente y diseños arquitectónicos deben restringirse bajo el principio de need-to-know, con autenticación multifactor, registro exhaustivo de accesos y revisiones periódicas de permisos.
2. DLP y analítica de comportamiento (UEBA). Las soluciones modernas de DLP combinadas con User and Entity Behavior Analytics permiten identificar patrones atípicos: exportación masiva de documentos, creación inusual de PDFs, sincronización con nubes personales o actividad intensa en horarios no habituales.
3. Gestión de conflictos de interés. Es esencial disponer de políticas claras sobre actividades externas, participación en programas de talento y colaboraciones con entidades extranjeras, especialmente cuando se trabaja con infraestructura de inteligencia artificial y hardware avanzado. Auditorías de cumplimiento y revisiones de alto riesgo reducen la probabilidad de abuso.
4. Cultura de seguridad y canales de denuncia. La formación continua debe explicar las consecuencias legales del robo de secretos comerciales y del espionaje económico, y ofrecer vías seguras para reportar comportamientos sospechosos de colegas sin temor a represalias.
El caso Linwei Ding subraya que proteger supercomputadores de IA y otros activos estratégicos no es solo una cuestión de tecnología, sino de gobernanza de acceso, supervisión continua y gestión del factor humano. Las organizaciones que desarrollan plataformas de inteligencia artificial harían bien en revisar hoy sus controles de insider threat, reforzar la protección de su propiedad intelectual y mantener una vigilancia activa frente al espionaje económico, antes de convertirse en la próxima víctima.