OpenAI ha lanciato l'11 maggio Daybreak, la sua prima iniziativa interamente dedicata alla cybersecurity. Sotto il cofano c'e' una nuova famiglia di modelli derivati da GPT-5.5 e una piattaforma chiamata Codex Security, che insieme servono a esaminare basi di codice, individuare vulnerabilita' e proporre patch verificate in un ambiente isolato. La risposta di Sam Altman al ramo cybersecurity di Anthropic - Project Glasswing con il modello Claude Mythos - arriva piu' tardi del previsto, ma con una platea di partner industriali piuttosto solida.
Akamai, Cisco, Cloudflare, CrowdStrike, Fortinet, Oracle, Palo Alto Networks e Zscaler hanno gia' firmato per integrare le API di Daybreak nei loro prodotti. L'accesso resta pero' molto controllato: chi vuole usare le funzioni piu' aggressive deve passare attraverso un programma di vetting che OpenAI chiama «Trusted Access for Cyber».
Tre modelli, tre livelli di rischio
La piattaforma e' costruita su tre versioni dello stesso modello, con livelli di guardrail differenti:
- GPT-5.5: il modello standard, con le protezioni classiche contro l'uso malevolo. Disponibile a tutti.
- GPT-5.5 con Trusted Access for Cyber: una versione meno restrittiva pensata per lavoro difensivo verificato in ambienti autorizzati - team di sicurezza interna, MSSP, fornitori di sicurezza. L'accesso e' su invito.
- GPT-5.5-Cyber: il modello piu' permissivo, riservato a red team, penetration tester e validatori in laboratorio. Solo per organizzazioni con «ruolo critico nella difesa di infrastrutture», secondo OpenAI.
La logica e' quella che gia' aveva accompagnato il rilascio limitato di Claude Mythos: dare ai «difensori» un vantaggio temporale sui malintenzionati, sapendo che i modelli sottostanti sono comunque potenzialmente a doppio uso.
Cosa fa Codex Security
La componente piu' interessante di Daybreak e' la piattaforma Codex Security, costruita sopra l'agente Codex che OpenAI aveva rilanciato a inizio anno. Il flusso di lavoro tipico:
- Si fornisce una repository o un binario.
- Codex Security costruisce un threat model modificabile dell'applicazione, focalizzato sui percorsi di attacco realistici e sulle parti di codice ad alto impatto (componenti che gestiscono autenticazione, parsing di input, gestione file, network).
- Identifica e testa potenziali vulnerabilita' in una sandbox isolata.
- Propone fix in linea con la base di codice, generando un diff e dei test di non regressione.
OpenAI sostiene che Codex Security ha gia' identificato falle «significative» in software open source e proprietari durante le anteprime, ma per ora non ha rilasciato un numero pubblico di CVE assegnati al programma. Anthropic, dal canto suo, sostiene che Claude Mythos abbia gia' contribuito a chiudere oltre 270 vulnerabilita' in Firefox per Mozilla.
I partner: chi integra cosa
OpenAI ha pubblicato l'elenco dei partner di lancio, tutti gia' al lavoro su integrazioni concrete:
- Cloudflare: scoperta automatica di vulnerabilita' nei Worker e nei progetti distribuiti via Pages.
- CrowdStrike: validazione automatica delle patch proposte dall'AI nei flussi di Falcon EDR.
- Cisco e Palo Alto Networks: integrazione nei rispettivi catalog hub e nei prodotti SASE.
- Akamai e Fortinet: scansione dei WAF e validazione di policy contro nuove classi di exploit.
- Oracle e Zscaler: revisione del codice in pipeline DevSecOps su cloud regolati.
L'idea e' che Daybreak non sia un prodotto a se' ma uno strato AI infilato dentro i prodotti di sicurezza che le aziende gia' usano. Una scelta che riduce l'attrito di adozione e mette OpenAI in concorrenza diretta con le startup di security AI come Bishop Fox, Snyk e Semgrep, che integravano il proprio cervello LLM.
Il dilemma dual-use
Il problema di un modello come GPT-5.5-Cyber e' lo stesso di Claude Mythos: un sistema che trova falle puo' usarle. Anthropic, nelle settimane scorse, ha confermato che un piccolo gruppo di utenti non autorizzati era riuscito a ottenere accesso a Mythos tramite un partner terzo - episodio che ha fatto cambiare procedure di accesso. OpenAI, presumibilmente avvertita, ha scelto un approccio piu' chiuso, con un comitato di review interno che valuta caso per caso le richieste.
Il punto e' soprattutto politico: i regolatori statunitensi (CAISI all'interno del Dipartimento del Commercio) e quelli europei (AI Office a Bruxelles) chiederanno presto chi puo' usare modelli con capacita' offensive di questo livello e con quali audit. Il commento di CSO Online osserva che il vero pulsante di rischio non e' il modello in se', ma le procedure di gestione dell'accesso: se basta un fornitore terzo per perdere il controllo, la garanzia di «trusted defender» vale poco.
Come provarlo (se si puo')
Per ora non c'e' un'interfaccia self-service. Le organizzazioni interessate possono chiedere a OpenAI una scansione di vulnerabilita' sul proprio software o contattare il team enterprise per valutare l'integrazione di Codex Security in pipeline interne. Per chi sviluppa software di sicurezza, la documentazione preliminare delle API e' disponibile sotto NDA via il portale sviluppatori. La concorrenza, intanto, non sta a guardare: Anthropic prepara una nuova versione di Mythos, Google DeepMind ha avviato il proprio programma equivalente (BugSweep) e startup come XBOW e Saberguard hanno raccolto centinaia di milioni proprio sull'idea di un «cervello» capace di trovare bug in autonomia.
Il prossimo trimestre dira' se Daybreak riuscira' davvero a ridurre i tempi di patching nelle aziende che lo stanno adottando - e se l'industria della cybersecurity, da sempre lenta a cambiare strumenti, accetera' la transizione verso pipeline guidate da agenti.




