Kit de Fraude con IA de Jinkusu Amenaza Sistemas KYC Bancarios y de Cripto con Deepfakes
Un actor de amenazas bajo el alias “Jinkusu” está comercializando en la dark web una sofisticada herramienta de cibercrimen diseñada para eludir los procesos de verificación de identidad (KYC) en instituciones financieras y plataformas de criptomonedas. El kit, que utiliza inteligencia artificial para generar deepfakes en tiempo real y manipular la voz, representa una nueva era de amenazas automatizadas contra los sistemas biométricos.
La información, revelada por el rastreador de cibercrimen Dark Web Informer y analizada por la empresa de ciberseguridad Vecert Analyzer, se hizo pública en una publicación en la red social X. Expertos en seguridad lo califican como una “llamada de atención” que expone las vulnerabilidades de los protocolos actuales de autenticación.
La Herramienta “Jinkusu”: Deepfakes y Voz para Engañar al KYC
La herramienta promocionada por Jinkusu representa una escalada técnica en los métodos para evadir las verificaciones de identidad. Su funcionamiento se basa en dos componentes principales impulsados por inteligencia artificial.
Funcionamiento Técnico
Para la suplantación facial, el kit emplea el framework de IA InsightFace para realizar intercambios faciales en tiempo real, una técnica conocida como “fluid gesture transfers”. Esto permite a un atacante superponer el rostro de una víctima sobre el suyo propio durante una verificación por video en vivo, imitando incluso los gestos y movimientos naturales.
Complementariamente, incorpora un módulo de modulación de voz diseñado específicamente para evadir los sistemas de verificación biométrica vocal, creando una capa adicional de engaño.
Impacto Inmediato y Advertencias
Deddy Lavid, CEO de la plataforma de seguridad blockchain Cyvers, describió el surgimiento de estas herramientas como una “llamada de atención” para la industria, subrayando las deficiencias de los sistemas KYC actuales.
“A medida que la IA reduce las barreras para el fraude de identidad sintética, la puerta principal siempre permanecerá vulnerable”, advirtió Lavid.
El ejecutivo abogó por la adopción de un enfoque de seguridad por capas que combine la verificación de identidad inicial con un monitoreo en tiempo real impulsado por IA para detectar comportamientos anómalos.
Contexto de la Amenaza: La Evolución del Fraude con IA
Esta nueva herramienta no surge en un vacío, sino que materializa advertencias previas y se integra en un ecosistema de estafas ya establecido.
Advertencias Previas y la Vulnerabilidad de una Sola Imagen
La amenaza fue anticipada por expertos del sector. En mayo de 2023, Jimmy Su, Chief Security Officer (CSO) del exchange Binance, ya había alertado de que los algoritmos de IA en mejora podrían llegar a vulnerar sistemas de identidad KYC utilizando únicamente una sola fotografía de la víctima.
La herramienta de Jinkusu automatiza y lleva a la práctica esa posibilidad teórica, reduciendo significativamente la barrera de entrada para cometer fraude de identidad sintética a gran escala.
Conexión con Otras Estafas: El Caso del “Pig Butchering”
Más allá del fraude directo contra instituciones, el kit también facilita la ejecución de estafas románticas de largo aliento, conocidas como “pig butchering” (matanza de cerdos).
Estas estafas, que a menudo terminan con la víctima transfiriendo fondos a plataformas fraudulentas, causaron pérdidas estimadas en $5.5 mil millones en aproximadamente 200,000 casos identificados durante 2024, según datos citados en el análisis. La herramienta permite a los estafadores suplantar identidades de manera convincente sin necesidad de conocimientos técnicos profundos.
Jinkusu y el Modelo de “Fraude como Servicio”
Jinkusu no es un actor nuevo en el panorama del cibercrimen. Su actividad se enmarca en el creciente modelo de “fraude como servicio”, donde los desarrolladores crean herramientas sofisticadas y las alquilan o venden a otros delincuentes.
Antecedentes: El Kit de Phishing “Starkiller”
El mismo presunto actor es señalado como responsable de la liberación del kit de phishing “Starkiller” en febrero de 2026. Según un informe de la plataforma de ciberseguridad Abnormal con fecha del 19 de febrero de 2026, “Starkiller” emplea una técnica avanzada que utiliza un proxy inverso en tiempo real alojado en un navegador Chrome sin interfaz (headless) dentro de un contenedor Docker.
Este método marca una evolución significativa respecto a los kits de phishing HTML tradicionales, ya que permite a los atacantes interceptar y manipular el tráfico entre la víctima y el sitio legítimo de forma más eficaz y difícil de detectar.
El Panorama Actual del Cibercrimen en Cripto
Este avance en la sofisticación delictiva ocurre en un contexto donde las tácticas más masivas han visto cierto retroceso. Un reporte de Scam Sniffer de enero de 2026 indica que las pérdidas globales por phishing de criptomonedas cayeron un 83% durante el año 2025.
Sin embargo, esta estadística positiva se ve matizada por la persistencia de scripts maliciosos “drainers” (vaciadores de carteras) y la emergencia de nuevo malware. La tendencia apunta a un cambio desde ataques masivos y poco dirigidos hacia herramientas más especializadas, automatizadas y potentes, como las ofrecidas por Jinkusu.
Conclusión: La Respuesta Necesaria del Sector
La actividad de Jinkusu ilustra una doble y creciente amenaza para el sector financiero tradicional y el de las criptomonedas: por un lado, herramientas de evasión de KYC basadas en deepfakes, y por otro, kits de phishing avanzados como “Starkiller”, ambos ofrecidos bajo el modelo de “fraude como servicio”.
Esta escalada subraya la urgencia, expresada por expertos como Deddy Lavid, de que las plataformas vayan más allá de depender exclusivamente de la verificación de identidad estática en el momento del registro. La conclusión es clara: se requiere una implementación crítica de soluciones de seguridad multicapa y proactivas que combinen verificación robusta con un monitoreo continuo del comportamiento y las transacciones en tiempo real para contrarrestar eficazmente estas amenazas automatizadas impulsadas por inteligencia artificial.

