Spie 2.0: L'AI diviene arma della Corea del Nord
L'intelligenza artificiale non è più solo uno strumento per innovare e produrre; sta rapidamente evolvendo in un'arma sofisticata nelle mani di attori statali. Un allarmante report della società di cybersecurity CrowdStrike ha acceso i riflettori su una nuova, inquietante frontiera dello spionagg...
Spie 2.0: L'AI diviene arma della Corea del Nord per infiltrare aziende globali
L'intelligenza artificiale non è più solo uno strumento per innovare e produrre; sta rapidamente evolvendo in un'arma sofisticata nelle mani di attori statali. Un allarmante report della società di cybersecurity CrowdStrike ha acceso i riflettori su una nuova, inquietante frontiera dello spionaggio digitale: agenti nordcoreani si stanno fingendo lavoratori da remoto per infiltrarsi in centinaia di aziende in tutto il mondo. È una mossa audace, che ridefinisce le regole del gioco.
La strategia è tanto semplice quanto diabolica. Questi operatori sfruttano la potenza dell'AI generativa per creare curriculum vitae impeccabili e profili professionali talmente credibili da superare i primi, stringenti filtri dei processi di selezione. Non si fermano qui: la tecnologia deepfake viene impiegata per alterare le loro sembianze durante i colloqui video, permettendo loro di assumere identità fittizie e nascondere la loro vera origine. Un inganno digitale su larga scala, difficile da smascherare.
L'inganno digitale e il finanziamento illecito
L'obiettivo finale di questa complessa operazione non è il mero spionaggio industriale, ma qualcosa di ben più grave: finanziare il programma nucleare della Corea del Nord, duramente colpito da pesanti sanzioni internazionali. Ottenendo lavori legittimi, soprattutto nel settore IT, questi agenti riescono a generare flussi di denaro “pulito” che vengono poi dirottati verso il regime di Pyongyang. Secondo il report di TechCrunch AI basato sui dati di CrowdStrike, negli ultimi 12 mesi sono stati identificati oltre 320 incidenti di questo tipo, con un aumento del 220% rispetto all'anno precedente. Un dato che fa riflettere sulla crescente efficacia di queste tattiche.
CrowdStrike, che identifica questi gruppi come “Famous Chollima”, ha rivelato che la chiave del successo risiede proprio nell'uso di AI generativa per redigere curriculum e modificare, o “deepfake”, l'aspetto dei candidati durante le videochiamate. Questo dimostra come l'AI stia abbassando la barriera d'ingresso per operazioni di spionaggio su larga scala, trasformando ogni azienda che assume da remoto in un potenziale bersaglio. La minaccia non è più solo un malware nascosto in un'email, ma un 'collega' virtuale che lavora silenziosamente per un governo ostile.
Le contromisure e il futuro della sicurezza
La questione è talmente seria che il Dipartimento di Giustizia degli Stati Uniti ha iniziato a smantellare queste operazioni, prendendo di mira i facilitatori basati negli USA che aiutano a gestire lo schema per conto dei loro capi nordcoreani. Queste azioni includono il colpire le cosiddette “laptop farm”, ovvero postazioni con decine di laptop aperti usati dai nordcoreani per lavorare da remoto, simulando una presenza fisica negli Stati Uniti. Un'indagine di giugno ha rivelato come una singola operazione nordcoreana abbia rubato le identità di 80 individui negli Stati Uniti tra il 2021 e il 2024 per ottenere lavori da remoto in oltre 100 aziende.
Come possono le aziende difendersi? CrowdStrike suggerisce di implementare processi di verifica dell'identità più robusti durante la fase di assunzione. Alcune aziende, soprattutto nel settore crypto, hanno persino adottato metodi insoliti, come chiedere ai potenziali dipendenti di esprimere pareri critici sul leader nordcoreano Kim Jong Un, un test che un vero spia, costantemente monitorato, non potrebbe mai superare. Questi accorgimenti, seppur bizzarri, evidenziano la disperazione e la creatività necessarie per contrastare un nemico così elusivo.
In un mondo sempre più interconnesso e dipendente dal lavoro da remoto, questa minaccia è destinata a crescere. Le aziende devono essere consapevoli che la loro prossima assunzione potrebbe non essere chi dice di essere. La battaglia per la sicurezza digitale si sposta dal perimetro della rete ai processi di selezione del personale, e l'intelligenza artificiale, che dovrebbe essere un alleato, è diventata, in mani ostili, uno strumento pericolosissimo. La vigilanza e l'innovazione nella sicurezza non sono mai state così cruciali.