La inteligencia artificial (IA) está redefiniendo el ecosistema del cibercrimen. El informe anual de Interpol sobre fraude financiero señala que las operaciones potenciadas por IA generan de media 4,5 veces más beneficio para los delincuentes que las estafas tradicionales. Las pérdidas globales por fraude financiero habrían alcanzado en 2025 alrededor de 442.000 millones de dólares, con una tendencia claramente al alza impulsada por el uso masivo de herramientas de IA.
Inteligencia artificial y la nueva escala del fraude financiero
El cambio no reside tanto en la aparición de modalidades de ataque completamente nuevas, sino en el salto en calidad, velocidad y capacidad de escala de las estafas existentes. Interpol describe una auténtica “industrialización del fraude”: técnicas que antes exigían amplios conocimientos técnicos ahora se comercializan como servicios de suscripción o kits listos para usar en mercados clandestinos.
En el nivel más básico, los delincuentes emplean IA generativa y grandes modelos de lenguaje (LLM) para perfeccionar la ingeniería social. Los antiguos correos de phishing, plagados de errores gramaticales o formulaciones sospechosas, han sido sustituidos por mensajes lingüísticamente impecables, adaptados al tono de bancos, comercios electrónicos o grandes marcas. Este incremento en la calidad del contenido eleva drásticamente la tasa de éxito de las campañas y reduce las señales de alerta para las víctimas.
Deepfakes, clonado de voz y el auge del “deepfake-as-a-service”
La evolución más visible se produce en el terreno de los deepfakes y los medios sintéticos. Según Interpol, bastan unos diez segundos de audio real, fácilmente obtenibles de redes sociales o vídeos públicos, para crear un clon de voz creíble. Esto permite simular llamadas de directivos, socios comerciales o familiares con un alto grado de persuasión.
Los ciberdelincuentes explotan este clonado de voz para presionar a equipos financieros, ordenando transferencias urgentes o aprobaciones de pagos atípicos “en nombre” de la alta dirección. Paralelamente, se ha consolidado un mercado de “deepfake-as-a-service”, donde se venden identidades sintéticas completas: fotografías, vídeos y voces generadas por IA. El bajo coste de estas soluciones y su facilidad de uso acelera la industrialización de la ciberdelincuencia, al reducir la barrera de entrada incluso para actores con poca habilidad técnica.
Agentes de IA: automatización avanzada de ciberataques
El informe de Interpol presta especial atención a los agentes de IA, sistemas capaces de planificar y ejecutar cadenas de acciones de forma semi autónoma. Aunque su uso delictivo todavía no es masivo, se considera un escenario inminente. Estos agentes podrían automatizar la fase de reconocimiento: recopilar datos públicos sobre una empresa, mapear empleados clave, localizar credenciales filtradas y analizar infraestructura en busca de vulnerabilidades.
Un vector especialmente preocupante es el análisis automatizado de datos robados. Un agente de IA puede clasificar grandes volúmenes de información exfiltrada, identificar documentos críticos, estimar el impacto legal y económico y ayudar a los atacantes a calcular el importe óptimo del rescate en campañas de ransomware. El resultado serían ataques mejor dirigidos, con demandas de extorsión ajustadas a la capacidad de pago de cada víctima, aumentando tanto la probabilidad de cobro como el daño potencial.
Sextorsión con imágenes generadas por IA y presión psicológica
Interpol también observa un crecimiento significativo de las campañas de sextorsión (sextortion) basadas en contenido sintético. En varios incidentes analizados, las víctimas rechazaron inicialmente participar en estafas de inversión, criptomonedas o fraude romántico. Como reacción, los delincuentes generaron imágenes íntimas falsas supuestamente protagonizadas por la víctima y las utilizaron para chantajearla, amenazando con difundirlas entre familiares, colegas o en redes sociales.
Estas operaciones se apoyan menos en fallos técnicos y más en el miedo reputacional y la presión psicológica. Incluso cuando la víctima sospecha que se trata de un montaje, el riesgo de exposición pública lleva a muchas personas a pagar el rescate. Este comportamiento refuerza el modelo económico de la sextorsión con IA y motiva a los ciberdelincuentes a replicar el esquema a gran escala.
El secretario general de Interpol, Valdeci Urquiza, resume el fenómeno señalando que, gracias a la inteligencia artificial, las herramientas digitales de bajo coste y la cooperación internacional entre redes criminales, el fraude se ha industrializado. En este contexto, mantener los antiguos modelos de seguridad equivale a una protección insuficiente. Las organizaciones y los usuarios deben acelerar su adaptación: invertir en formación en ciberseguridad, desplegar autenticación multifactor, establecer protocolos estrictos para validar cualquier orden financiera, desconfiar de solicitudes urgentes por canales no verificados y adoptar soluciones de verificación de contenido audiovisual. Cuanto antes se integren estas prácticas, mayor será la capacidad colectiva para contener el impacto del fraude financiero impulsado por la inteligencia artificial en los próximos años.