Tutti i grandi laboratori di intelligenza artificiale americani consegneranno al governo federale i propri modelli per test di sicurezza prima del rilascio al pubblico. Microsoft, Google e xAI hanno firmato il 5 maggio l'accordo con il Center for AI Standards and Innovation (CAISI), divisione del Dipartimento del Commercio creata sulle ceneri dell'AI Safety Institute della Nist. OpenAI e Anthropic, che gia' avevano un accordo simile risalente al 2024 sotto l'amministrazione Biden, lo hanno rinegoziato per allinearlo all'AI Action Plan di Trump.

Cosa testa esattamente il CAISI

Il centro, riporta il Washington Post, ha gia' completato piu' di 40 valutazioni di modelli, alcuni dei quali ancora non rilasciati. I test ruotano attorno a tre aree definite "di sicurezza nazionale": cybersicurezza (un modello aiuta a trovare e sfruttare vulnerabilita'?), biosicurezza (puo' essere usato per sintetizzare patogeni o tossine?), armi chimiche (puo' suggerire vie di sintesi di agenti pericolosi?). Non si testa il bias politico ne' la sicurezza dei minori: temi che l'amministrazione Trump ha esplicitamente escluso dall'AI Action Plan di luglio scorso.

Il processo e' volontario, almeno formalmente. In pratica, i laboratori che vogliono vendere all'amministrazione federale o ai contractor della difesa devono passare dai test. CNN riferisce che i modelli vengono consegnati al CAISI con accesso ai pesi completi e a versioni senza i filtri di sicurezza, perche' i ricercatori possano valutare le capacita' "pure" prima che vengano addomesticate dal fine-tuning di sicurezza.

Perche' arriva adesso

L'accelerazione e' figlia di due fatti concreti. Il primo: ad aprile Anthropic ha annunciato Claude Mythos Preview, un modello specializzato nella ricerca di vulnerabilita' che ha sollevato preoccupazioni interne alla National Security Agency. Il secondo: l'11 maggio Google ha rivelato il primo zero-day in natura sviluppato con l'aiuto di un modello di IA (l'articolo dedicato e' su AI Notizie). I due episodi hanno reso politicamente impossibile per la Casa Bianca rimandare l'accordo.

L'AI Action Plan dell'amministrazione Trump mette al primo posto la sicurezza nazionale tra i criteri di valutazione.

Cosa cambia per i clienti europei e italiani

La domanda concreta che molti CIO si stanno facendo e' una: i miei dati che passano per le API di GPT-5.5, Claude Opus 4.7 o Gemini 3.1 Pro finiscono al CAISI? La risposta breve e': no, il CAISI testa i modelli, non legge il traffico dei clienti. La risposta lunga e' piu' delicata: i contratti con i grandi laboratori americani vengono adesso aggiornati con clausole che permettono al governo di vedere come si comportano i modelli su determinati prompt; cio' che entra in test e' un'istanza del modello, non i dati dei singoli utenti, ma il principio della consegna anticipata al governo USA rafforza le inquietudini gia' espresse dai garanti privacy europei.

Per il legislatore europeo significa che la pressione su un'EU AI Office con capacita' simile di test pre-rilascio si fara' piu' forte. Oggi il General-Purpose AI Code of Practice firmato dai laboratori prevede valutazioni interne e audit di terze parti, non test fatti direttamente dai funzionari di Bruxelles. La differenza, dopo l'accordo americano, sembra meno politicamente difendibile.

I laboratori che restano fuori

L'accordo del CAISI tocca solo i laboratori americani. I modelli cinesi - DeepSeek V4, Kimi K2.6 di Moonshot, Qwen 3.6 Plus di Alibaba, GLM di Zhipu - sono pubblicamente disponibili come open-weight su Hugging Face, e diversi sono ormai allineati o superiori a quelli americani in coding e ragionamento. Il rischio, ammesso anche da CNBC, e' che il test pre-rilascio rallenti i grandi americani senza fermare la concorrenza globale: chi vuole un modello "non filtrato" lo trova nella stessa giornata su Hugging Face, scaricato dalla Cina o dall'Europa.

Il dibattito sui safeguard "senza filtri"

Una parte della comunita' di ricerca rimprovera all'accordo CAISI un dettaglio sottile: i modelli vengono spesso rilasciati subito dopo i test, ma con safeguard che molti analisti giudicano deboli. Tom's Hardware cita ricercatori indipendenti che hanno mostrato come il "jailbreak" su Grok 3 e su versioni recenti di Gemini possa essere fatto in poche righe di prompt. L'utilita' del test pre-rilascio diminuisce se chi lo fa non puo' o non vuole imporre cambiamenti ai modelli prima del lancio.

Il direttore del CAISI ha promesso "raccomandazioni vincolanti" per i modelli destinati alla pubblica amministrazione federale, ma per il resto del mercato i suggerimenti restano consultivi. Resta da capire, nei prossimi mesi, se Washington usera' davvero l'accordo come strumento di gatekeeping o solo come strumento di image management dopo i casi degli ultimi mesi.

Per ora, una vittoria per Anthropic e OpenAI

Sul piano competitivo, i due laboratori che avevano gia' accordi pre-esistenti escono rafforzati: Microsoft, Google e xAI dovranno adeguare i propri processi interni di rilascio agli stessi tempi che Anthropic e OpenAI applicano dal 2024. Il time-to-market dei modelli si allunghera' di settimane, e i piccoli laboratori che speravano di sfruttare la velocita' come vantaggio competitivo si trovano a un bivio: aderire e rallentare, oppure rinunciare al business pubblico americano.