Black Hat 2025: L'AI è il tuo peggior insider?

La Black Hat 2025 ha lanciato un allarme che ribalta la prospettiva tradizionale sulla cybersecurity: la minaccia non viene più solo dall'esterno, ma dagli stessi strumenti di AI che le aziende adottano per aumentare la produttività.

Black Hat 2025: Quando la tua AI diventa il peggior insider

Immagina di aver fortificato la tua fortezza aziendale contro ogni minaccia esterna, ma il pericolo arriva da chi meno ti aspetti: i tuoi stessi alleati digitali. Questo è il grido d'allarme lanciato al Black Hat 2025, la conferenza di cybersecurity più influente al mondo. Non parliamo più solo di hacker esterni o dipendenti infedeli. La nuova frontiera del rischio è rappresentata dagli strumenti di Intelligenza Artificiale che ogni giorno integriamo nei nostri flussi di lavoro, dai Large Language Models (LLM) agli agenti AI autonomi. Questi potenti alleati, se mal gestiti, possono trasformarsi in veri e propri “cavalli di Troia” moderni, esfiltrando dati o sabotando sistemi dall'interno. È una prospettiva che ribalta il paradigma tradizionale della sicurezza informatica.

Gli esperti hanno mostrato come questi strumenti, nati per aumentare la produttività, possano essere manipolati. Non c'è bisogno di corrompere un agente AI; basta un'iniezione di prompt ben orchestrata o lo sfruttamento di vulnerabilità intrinseche per fargli ignorare le policy di accesso, rivelare informazioni riservate o persino eseguire codice non autorizzato. La natura stessa di molti di questi modelli, spesso delle 'black box' imperscrutabili, rende estremamente difficile prevedere e mitigare comportamenti anomali. Siamo di fronte a un paradosso: l'AI non è solo un bersaglio da proteggere, ma un potenziale aggressore interno, silenzioso e insidioso.

Dall'hype ai risultati: l'urgenza di un cambio di passo

La conferenza ha segnato un punto di svolta. Come ha riportato VentureBeat AI, il focus si è spostato dalle promesse teoriche ai risultati misurabili. Le aziende si stanno affannando per implementare l'AI nella sicurezza, con un aumento del 136% delle intrusioni cloud negli ultimi sei mesi e operazioni sofisticate come quelle degli agenti nordcoreani che hanno infiltrato 320 aziende usando identità generate dall'AI. Adam Meyers di CrowdStrike, intervistato da VentureBeat, ha sottolineato l'urgenza: “Quando gli avversari si muovono a quella velocità, non puoi aspettare. Hai bisogno di cacciatori di minacce umani in gioco che stiano facendo, sai, non appena l'avversario accede, o non appena l'avversario compare, sono lì e stanno combattendo corpo a corpo con quegli avversari.”

Questo scenario, se da un lato spinge all'adozione di AI per difendersi (con strumenti come il Security Copilot di Microsoft o Cortex XSOAR di Palo Alto Networks che automatizzano indagini e risposte), dall'altro solleva la questione cruciale della fiducia. La stessa AI che ci aiuta a identificare le minacce esterne potrebbe essere la nostra prossima vulnerabilità interna. Non è un caso che Cisco abbia rilasciato Foundation-sec-8B-Instruct, il primo modello AI conversazionale open-source specifico per la cybersecurity, un tentativo di dare ai team di sicurezza maggiore controllo e trasparenza sugli strumenti che usano.

La minaccia nordcoreana e le identità sintetiche: un caso studio

Un esempio lampante di questa nuova frontiera del rischio viene dall'operazione FAMOUS CHOLLIMA, che ha visto infiltrarsi oltre 320 aziende. Questi operatori, supportati dall'AI, non si limitano a creare profili LinkedIn falsi o a usare deepfake durante i colloqui. Una volta assunti, l'AI li aiuta a generare codice e a svolgere il lavoro per cui sono stati assunti, rendendoli indistinguibili da un dipendente legittimo. “Stanno usando l'AI durante l'intero processo”, ha spiegato Meyers. Questo significa che gli attacchi non passano più attraverso malware tradizionali, facilmente rilevabili, ma sfruttano credenziali legittime e comportamenti apparentemente normali.

È un cambiamento epocale: non si tratta più di difendersi da un'intrusione, ma di riconoscere un nemico che opera già all'interno, con accesso autorizzato. La rapidità con cui queste minacce evolvono è sbalorditiva. “Scattered Spider ha colpito il settore del retail ad aprile, le compagnie assicurative a maggio, l'aviazione a giugno e luglio”, ha ammonito Meyers. Questa velocità impone alle organizzazioni di reagire con la stessa agilità, senza aspettare soluzioni perfette.

Zero Trust e governance: la strada da percorrere

Il messaggio finale del Black Hat 2025 è chiaro: l'AI sarà la prossima minaccia interna. Le organizzazioni si fidano ciecamente di questi strumenti, e più si sentono a loro agio, meno tenderanno a verificare l'output. Questo ha spinto a discussioni urgenti su standardizzazione e governance. La Cloud Security Alliance ha annunciato un gruppo di lavoro dedicato agli standard di sicurezza dell'AI agentica, mentre diversi vendor si sono impegnati in sforzi collaborativi per l'interoperabilità degli agenti AI. L'espansione di Falcon Shield di CrowdStrike per includere la governance degli agenti basati su OpenAI GPT, e l'iniziativa di Cisco sulla sicurezza della supply chain AI con Hugging Face, dimostrano che l'industria sta riconoscendo l'importanza di mettere in sicurezza gli stessi agenti AI, tanto quanto usarli per la sicurezza.

Nonostante l'avanzamento tecnologico, un tema costante è emerso: l'AI agentica non sostituirà gli analisti umani, ma li aumenterà. Ogni grande fornitore ha sottolineato il modello di collaborazione uomo-macchina. Questo significa che, anche se l'AI gestirà i compiti di routine, la supervisione umana rimarrà essenziale per decisioni ad alto rischio e per la risoluzione creativa dei problemi. La fiducia zero, applicata non solo agli utenti umani ma anche ai nostri assistenti digitali, monitorando costantemente le loro azioni e limitando il loro accesso solo ai dati strettamente necessari, è l'unica via per navigare in questo nuovo panorama di minacce. In gioco non ci sono solo i dati aziendali, ma la sicurezza nazionale e la fiducia dei clienti. Il tempo dell'ottimismo ingenuo è finito; è tempo di una strategia proattiva e di una consapevolezza critica nei confronti dei nostri stessi strumenti AI.