La irrupción de la inteligencia artificial generativa, liderada por modelos de lenguaje de gran escala (LLM, por sus siglas en inglés) como GPT-3, GPT-4 y sus sucesores, ha supuesto un cambio paradigmático en múltiples sectores. Desde la educación y la comunicación hasta la creatividad artística, el análisis de datos o la programación, estas herramientas han democratizado capacidades que antes requerían años de formación y experiencia. Pero, como toda tecnología transformadora, también han abierto grietas por las que el crimen se filtra y amplifica su alcance.
En los últimos años han emergido versiones de estos modelos, diseñadas específicamente para fines ilícitos, eliminando las salvaguardas éticas y de seguridad de las versiones oficiales. Es el caso de FraudGPT y WormGPT, dos herramientas descritas en profundidad por Wired (Newman, 2023) y otros informes del sector de la ciberseguridad (SlashNext, 2023; Ironscales, 2023). Estas versiones “black hat” permiten a los delincuentes realizar phishing, ingeniería social, redacción de malware y creación de esquemas fraudulentos a una escala y velocidad sin precedentes.
Este fenómeno, que podríamos denominar “crimen generativo”, representa no solo una evolución de las técnicas tradicionales de cibercrimen, sino una auténtica revolución en sus capacidades. La automatización, escalabilidad y personalización que permite la IA generativa plantean desafíos sin precedentes para agencias de seguridad, empresas y ciudadanos.
Según el informe de INTERPOL Beyond Illusions (2024), la proliferación de herramientas de IA generativa en mercados oscuros, junto con la capacidad de crear deepfakes, suplantaciones de identidad y contenido sintético verosímil, está ampliando el perímetro de ataque y dificultando la atribución y detección. Esta situación está forzando una carrera armamentística algorítmica entre quienes usan la IA para delinquir y quienes intentan detenerla.
Este artículo explora cómo se está utilizando la IA generativa en el crimen, lo que nos espera a corto y medio plazo, y cómo la propia IA, en la hipotética forma de un CSI-GPT, podría ser nuestra aliada para frenarlo.