OpenAI ha aperto l'11 maggio 2026 l'accesso al governo dell'Unione Europea, e a una platea di aziende, autorita e istituzioni europee, a GPT-5.5-Cyber, una variante del suo modello di punta pensata per il lavoro di sicurezza informatica. La caratteristica chiave e controintuitiva: non e un modello "piu potente" del GPT-5.5 normale, ma uno meno restrittivo. Quando un utente verificato gli chiede di fare cose che i chatbot di solito rifiutano, analizzare un campione di malware, fare reverse engineering, cercare vulnerabilita in un software, validare una patch, GPT-5.5-Cyber collabora invece di opporre il muro del "non posso aiutarti con questo".
Perche serve una versione "permissiva" del modello
Chi lavora in sicurezza lo sa bene: i filtri dei modelli generalisti, tarati per impedire abusi, finiscono spesso per bloccare anche gli usi legittimi. Un analista che incolla uno script offuscato e chiede "spiegami cosa fa" si sente rispondere che la richiesta potrebbe favorire attivita malevole; chi chiede di scrivere un proof-of-concept per una falla che sta segnalando in modo responsabile viene rimbalzato. GPT-5.5-Cyber nasce per questo: secondo OpenAI e addestrato e autorizzato a supportare il difensore, identificazione di vulnerabilita, analisi di malware, reverse engineering, validazione di patch, restando comunque dentro un perimetro di controlli. Il modello e stato reso disponibile la settimana scorsa in anteprima limitata a team di sicurezza selezionati, nell'ambito del programma "Trusted Access for Cyber".

Come accedervi (e perche per ora non e per tutti)
Mettiamo subito in chiaro un punto: GPT-5.5-Cyber non e un pulsante che chiunque puo attivare in ChatGPT. E disponibile in anteprima limitata e richiede una verifica dell'organizzazione. I percorsi, allo stato attuale, sono due:
- Programma "Trusted Access for Cyber" di OpenAI: aziende e team di sicurezza presentano una candidatura, vengono verificati e, se approvati, ottengono l'accesso al modello via API.
- OpenAI EU Cyber Action Plan: il canale dedicato a imprese, governi, autorita di cybersicurezza e organismi europei, incluso l'EU AI Office, annunciato l'11 maggio. E il modo con cui le istituzioni dell'Unione potranno testare il modello e usarlo per rafforzare le difese.
Per tutti gli altri, il modello "base", GPT-5.5, resta accessibile come sempre: su ChatGPT (piani Plus a circa 23 euro al mese e Pro) e tramite le API a consumo. E un buon assistente anche per molti compiti di sicurezza "leggeri", spiegare un log, abbozzare uno script di hardening, ripassare una CVE, semplicemente rifiuta i casi piu sensibili.
Un esempio concreto di come lo userebbe un analista
Immaginiamo un team di incident response che ha intercettato uno script sospetto su un server. Con accesso a GPT-5.5-Cyber via API, il prompt potrebbe essere:
Sei un analista di malware. Ti incollo uno script PowerShell offuscato trovato su un host compromesso. 1) Deoffuscalo e spiega passo passo cosa fa. 2) Elenca gli indicatori di compromissione (IP, domini, hash, chiavi di registro, file). 3) Scrivi una regola YARA per rilevare campioni simili. 4) Indica le contromisure immediate. Ecco lo script: [...]
Il risultato atteso e una ricostruzione leggibile della catena di esecuzione (download, persistenza, esfiltrazione), una lista di IOC pronta da inserire negli strumenti di monitoraggio, una bozza di regola YARA da rifinire e una check-list di contenimento. Lo stesso compito, sul modello generalista, in molti casi verrebbe interrotto a meta con un rifiuto. Resta inteso che il modello sbaglia e "allucina": ogni output va verificato, e l'analista resta responsabile delle decisioni.
Il contesto: l'UE che chiede accesso, Anthropic che frena su Mythos
L'apertura europea di GPT-5.5-Cyber arriva mentre i funzionari finanziari dell'Unione premono su Anthropic perche conceda alle organizzazioni del continente l'accesso al suo modello rivale, Mythos, avvertendo che le imprese europee rischiano di restare indietro rispetto a quelle statunitensi nel prepararsi alle minacce informatiche assistite dall'IA. E arriva nella stessa settimana in cui il Google Threat Intelligence Group ha rivelato il primo caso noto di exploit zero-day costruito con l'aiuto di un modello linguistico. Il filo conduttore e evidente: se l'IA abbassa il costo dell'attacco, i difensori vogliono almeno la stessa potenza di fuoco, e i laboratori cercano di fornirgliela senza, al tempo stesso, regalare un'arma a chiunque.
Cosa significa per chi fa sicurezza in Italia
Per ora, concretamente, niente cambia per il singolo professionista: l'accesso passa dalle organizzazioni e dalla verifica. Ma vale la pena tenerlo d'occhio. I SOC, i CERT, i fornitori di servizi gestiti di sicurezza e i team interni delle grandi aziende italiane sono esattamente il pubblico a cui questi modelli "permissivi" sono destinati; e il programma EU Cyber Action Plan punta a coinvolgere autorita e imprese del continente. Nel frattempo, la regola pratica resta quella di sempre: i modelli generalisti vanno bene per molti compiti, ma quando rifiutano un'attivita legittima la risposta non e "aggirare il filtro", bensi usare gli strumenti pensati e autorizzati per quel lavoro. I dettagli del programma sono descritti nel post di OpenAI Scaling Trusted Access for Cyber with GPT-5.5; la notizia dell'apertura all'UE e stata riportata da CNBC e altre testate.




