L'AI è la nuova arma del cybercrime: il report ENISA lancia l'allarmeL'intelligenza artificiale non è più solo uno strumento di difesa. È diventata un'arma potente, e sempre più accessibile, nelle mani dei cybercriminali. A lanciare l'allarme non è un film di fantascienza, ma il più recente e autorevole report sulla sicurezza informatica in Europa. L'ENISA, l'Agenzia dell'Unione Europea per la Cybersecurity, ha messo nero su bianco una realtà preoccupante nel suo ultimo Threat Landscape 2025, un'analisi che fotografa le minacce digitali nel nostro continente.Il quadro che emerge è chiaro: se ransomware e phishing rimangono i protagonisti indiscussi del panorama criminale, la loro efficacia sta per essere amplificata a dismisura da un nuovo, temibile alleato: l'intelligenza artificiale. Non si tratta più di attacchi goffi e facilmente riconoscibili. La partita si sta spostando su un livello di sofisticazione completamente diverso.Come l'AI sta potenziando il cybercrimeMa in che modo, concretamente, l'AI sta cambiando le regole del gioco? Il rapporto ENISA evidenzia come questa tecnologia venga usata per rendere gli attacchi più mirati, automatizzati e difficili da intercettare. Non è più necessaria una profonda conoscenza tecnica per sferrare un attacco devastante; oggi, l'AI offre strumenti "chiavi in mano" anche a criminali meno esperti.Phishing 2.0: l'inganno diventa perfettoDimenticate le email piene di errori grammaticali che tradivano un tentativo di truffa. L'intelligenza artificiale generativa è in grado di creare testi di phishing iper-realistici, personalizzati sulla base delle informazioni che raccoglie online sulla vittima. Immaginate di ricevere un'email dal vostro capo, scritta nel suo stile inconfondibile, che vi chiede di compiere un'azione urgente. L'inganno è quasi perfetto e la probabilità di cadere nella trappola aumenta esponenzialmente.A questo si aggiunge la minaccia dei deepfake. Video e audio manipolati con l'AI possono essere usati per simulare la voce di un CEO che autorizza un bonifico fraudolento o per creare campagne di disinformazione su larga scala. La linea tra realtà e finzione diventa sempre più labile, con conseguenze potenzialmente disastrose per aziende e istituzioni.Ransomware "intelligente" e attacchi automatizzatiIl ransomware, la pratica di bloccare i sistemi informatici chiedendo un riscatto, diventa ancora più letale con l'AI. Gli algoritmi possono essere addestrati per scandagliare le reti in autonomia, identificare le vulnerabilità più critiche e adattare la strategia di attacco in tempo reale per eludere le difese. Questo significa attacchi più veloci, più efficienti e capaci di colpire un numero maggiore di bersagli simultaneamente.Come sottolinea il report, l'AI non solo migliora le tecniche esistenti, ma apre la porta a vettori di attacco completamente nuovi. Dalla manipolazione di dati su cui si basano altri sistemi AI (come quelli per la guida autonoma) alla creazione di malware polimorfico che cambia continuamente per non essere rilevato, lo scenario è in costante evoluzione.Settori nel mirino e la corsa agli armamenti digitaliNessuno è al sicuro, ma alcuni settori sono più esposti di altri. L'ENISA identifica nella pubblica amministrazione, nei trasporti e nelle infrastrutture digitali i bersagli principali. Si tratta di aree strategiche per il funzionamento della nostra società, la cui paralisi può avere un impatto devastante. Pensiamo ai dati sensibili dei cittadini gestiti dalla PA o alla logistica che governa i nostri trasporti: un attacco ben congegnato potrebbe mandare in tilt servizi essenziali.Cosa fare, quindi? La risposta non è semplice e ci proietta in quella che sembra una vera e propria corsa agli armamenti digitali. Se i criminali usano l'AI per attaccare, le aziende e i governi devono usarla per difendersi. Servono sistemi di sicurezza basati sull'intelligenza artificiale, capaci di analizzare quantità enormi di dati per prevedere e neutralizzare le minacce prima che si concretizzino. Ma la tecnologia, da sola, non basta.Il fattore umano resta l'anello debole e, allo stesso tempo, la risorsa più preziosa. Investire nella formazione e nella consapevolezza (la cosiddetta *security awareness*) di dipendenti e cittadini è fondamentale. Riconoscere un tentativo di phishing, anche quando sembra perfetto, rimane la prima, insostituibile linea di difesa. La sfida è complessa e richiede uno sforzo congiunto: istituzioni, settore privato e singoli individui devono collaborare per costruire una resilienza collettiva, preparandosi a un futuro in cui la battaglia per la sicurezza si combatterà a colpi di algoritmi.