Microsoft, Google e xAI hanno acconsentito a concedere al governo federale americano l'accesso anticipato ai propri nuovi modelli di intelligenza artificiale per condurre test di sicurezza nazionale prima del lancio pubblico. L'accordo, annunciato il 5 maggio 2026 dal Center for AI Standards and Innovation (CAISI) del Dipartimento del Commercio, e' una delle mosse piu' significative dell'amministrazione Trump sul fronte della governance tecnologica e arriva in un momento di particolare tensione, dopo le rivelazioni di Google sulle capacita' offensive del modello Mythos di Anthropic.

Cosa prevede l'accordo

Sotto il nuovo schema, i tre laboratori dovranno consegnare al CAISI versioni dei modelli con i guardrail di sicurezza parzialmente disattivati, in modo che gli scienziati federali possano sondare i rischi peggiori. Le aree di interesse: cyberattacchi automatici (con focus particolare su vulnerabilita' zero-day), uso militare doppio, manipolazione su larga scala di processi elettorali, capacita' di assistere nella sintesi di armi biologiche o chimiche. La valutazione avviene su una sandbox isolata, con report classificati e raccomandazioni sui rilascio (autorizzato, autorizzato con restrizioni, sospeso).

Perche' adesso

Il timing non e' casuale. L'11 maggio scorso il Google Threat Intelligence Group ha attribuito a Mythos il primo exploit zero-day costruito autonomamente da un modello, e CNBC ha rivelato che Anthropic, pur partecipando ad analoghi confronti con l'UE per la versione cyber di GPT-5.5, sta tenendo Mythos fuori dai canali governativi americani. La frase usata pubblicamente da Anthropic e' "useremo i nostri canali tecnici di sicurezza". Tradotto, il laboratorio non si fida della struttura CAISI o non vuole condividere materiale che potrebbe finire in mani sbagliate.

Chi controlla i controllori

Il CAISI e' la rinominata versione dell'AI Safety Institute creato sotto Biden e ospitato dal NIST. Con il riassetto della Casa Bianca repubblicana e' passato sotto il Commerce Department e ha ricevuto un mandato piu' operativo, con potere di sospendere il rilascio negli Stati Uniti di modelli ritenuti pericolosi. Il direttore e' Eric Schmidt, ex CEO di Google, e l'organico include una sessantina di ricercatori. Microsoft, in una nota separata, ha confermato che lavorera' con il CAISI "per sondare comportamenti inaspettati" dei sistemi.

L'accordo riprende un impegno preso a luglio dall'amministrazione Trump con le "big AI"

I precedenti che contano

OpenAI aveva firmato un accordo simile nel 2024 sotto l'amministrazione Biden e lo ha rinnovato a fine 2025. Anthropic aveva fatto lo stesso, ma con clausole piu' restrittive che ora si rifiuta di applicare a Mythos. Meta ha firmato per Llama 5 a fine aprile. Apple, che a settembre apriva iOS 27 a modelli di terze parti, ha annunciato che applichera' lo stesso schema ai partner. Restano fuori i laboratori cinesi (Moonshot, DeepSeek, Alibaba, Tencent), che peraltro non avrebbero motivo di consegnare i propri pesi a Washington.

Cosa rischia chi non collabora

L'accordo e' formalmente volontario, ma il CAISI ha tre leve di pressione: 1) il Government Wide Acquisition, il quadro contrattuale che decide quali modelli possono essere acquistati dalle agenzie federali (Pentagono, FDA, FBI, NSA); 2) le sanzioni FCC e FTC su deployments su larga scala; 3) le restrizioni all'export, in particolare per modelli che vengono ospitati su cloud cinesi. Per i laboratori americani, restare fuori dal canale CAISI significherebbe rinunciare a contratti che, sommati, valgono qualche miliardo l'anno.

Le implicazioni per l'Europa

Il modello americano e' diverso da quello dell'AI Act europeo. Mentre Bruxelles affida la valutazione dei modelli ad alto impatto sistemico all'EU AI Office, che opera con criteri pubblici e regole condivise, il CAISI agisce in regime di classificazione e con discrezionalita' politica. Le aziende europee che vendono modelli negli Stati Uniti dovranno adeguarsi a entrambi i regimi: una doppia conformita' che potrebbe rallentare i rilasci e svantaggiare i laboratori UE come Mistral. Il commissario al digitale Henna Virkkunen ha commentato che "la valutazione tecnica dei modelli di frontiera deve restare un esercizio scientifico, non geopolitico".

Per gli utenti italiani

Per chi usa quotidianamente Copilot, Gemini o Grok in Italia, l'accordo non cambia praticamente nulla nell'immediato. I modelli che arriveranno via cloud Microsoft Azure, Google Cloud e xAI restano gli stessi, con i medesimi guardrail. L'unica differenza concreta riguarda eventuali ritardi nei rilasci: se il CAISI individua un problema serio, un modello potrebbe slittare di settimane. Resta da capire come questo si concili con la same-day availability promessa da Anthropic per Claude su AWS o da Google per Gemini su Vertex AI: e' probabile che, in caso di problemi, l'azienda riceva la richiesta di patch prima del lancio europeo, evitando un blocco locale.