AI Act: La Regolamentazione Frena l'Innovazione in Europa?

Il mondo dell'intelligenza artificiale è in fermento, ma in Europa, tra le promesse di innovazione, si affacciano nubi di incertezza. Il protagonista di questa tensione è l'AI Act, la normativa europea sull'intelligenza artificiale, che, pur ambiziosa, sta generando non pochi grattacapi a chi ope...

Il mondo dell'intelligenza artificiale è in fermento, ma in Europa, tra le promesse di innovazione, si affacciano nubi di incertezza. Il protagonista di questa tensione è l'AI Act, la normativa europea sull'intelligenza artificiale, che, pur ambiziosa, sta generando non pochi grattacapi a chi opera nel settore. L'espressione chiave, che sta facendo il giro delle cancellerie e delle aziende, è 'stop the clock', un possibile rinvio che bloccherebbe l'applicazione di alcune norme cruciali.

A giugno e luglio 2025, il dibattito è esploso. La commissaria europea Virkkunen non ha escluso un possibile rinvio, scatenando un coro di appelli da parte di associazioni di settore come Anitec-Assinform, Digitaleurope e Businesseurope. Eppure, la Commissione europea ha poi smentito che l'opzione fosse sul tavolo. Una situazione confusa, che troverà forse un chiarimento solo con la riunione dell'AI Board il 18 settembre, e una decisione definitiva non prima dei primi mesi del 2026, con l'approvazione del pacchetto Omnibus di semplificazione per il digitale. Un'attesa che tiene tutti col fiato sospeso.

Il Calendario dell'AI Act: Un Puzzle Complicato

Per capire bene la situazione, è fondamentale conoscere il calendario di applicazione dell'AI Act. Non si tratta di un'entrata in vigore unica, ma graduale. Alcune disposizioni, come quelle sull'alfabetizzazione digitale (AI Literacy) e il divieto di pratiche inaccettabili, sono operative da febbraio 2025. Dal 2 agosto 2025, invece, sono entrate in vigore le norme sui modelli di AI generale (GPAI), mentre per i sistemi di AI ad alto rischio l'applicazione è prevista da agosto 2026. Questo scaglionamento, pensato per facilitare l'adeguamento, sta invece creando un senso di urgenza e incertezza.

Quando si parla di 'stop the clock', non si intende un blocco totale dell'AI Act. Nessuno chiede di sospendere le norme già in vigore, come quelle sulle pratiche proibite. La discussione si concentra piuttosto sulle parti non ancora operative, in particolare sulle norme per i sistemi ad alto rischio e sui modelli di AI generale. Alcuni chiedono una revisione completa della tempistica, altri un periodo di grazia per i modelli generali, ma la richiesta più forte riguarda i sistemi ad alto rischio, dove i ritardi negli standard tecnici rendono quasi impossibile l'adeguamento.

Code of Practice: Arrivato in Ritardo, Crea Problemi Immediati

Uno dei motivi principali di questa richiesta di rinvio è il ritardo nella pubblicazione del Code of Practice (CoP) per i modelli di AI generale. Questo strumento, volontario, dovrebbe guidare le aziende verso la conformità all'AI Act. Aderirvi significa ottenere maggiore chiarezza sui requisiti, ma anche accettare obblighi aggiuntivi di trasparenza. Il problema? Era atteso per maggio, ma è stato pubblicato solo il 10 luglio. Le linee guida per le aziende sono arrivate il 18 luglio, e il template per la trasparenza sui dati di addestramento il 21 luglio. Insomma, tutta la documentazione necessaria è stata resa disponibile a ridosso dell'entrata in vigore del 2 agosto, per requisiti che richiederebbero mesi di preparazione. Le imprese si trovano così a dover decidere in fretta se firmare il CoP, un dilemma che aggiunge pressione in un contesto già complesso. Come riportano le FAQ dell'AI Office, non c'è una scadenza per la firma, ma si chiede ai fornitori esistenti di aderire prima del 1° agosto. Una richiesta ambiziosa, dato il poco preavviso.

Il Nodo Cruciale: Gli Standard Armonizzati

Se il ritardo del Code of Practice è un problema immediato, la questione degli standard armonizzati per i sistemi ad alto rischio è il vero tallone d'Achille. La Commissione ha incaricato le organizzazioni competenti, come CEN-CENELEC, di sviluppare questi standard, ma molti non saranno pronti prima dell'inizio del 2026, alcuni persino ad agosto dello stesso anno. Questo è un problema enorme. Gli standard armonizzati, infatti, forniscono una 'presunzione di conformità': se un'azienda li segue, si presume automaticamente che rispetti i requisiti legali dell'AI Act. Senza di essi, le imprese sono costrette a interpretare le normative da sole, esponendosi a rischi legali significativi. Immaginate di dover costruire un mobile complesso senza istruzioni precise o, peggio, senza le misure esatte dei pezzi.

È per questo che Anitec-Assinform ha inviato una lettera alla Commissaria Virkkunen, sottolineando come «senza gli standard armonizzati, le attese linee guida sui sistemi di AI ad alto rischio si riveleranno inefficaci nel fornire la necessaria chiarezza per la conformità». La domanda sorge spontanea: quanti progetti di AI in Italia e in Europa non vengono avviati proprio a causa di questa incertezza normativa? La richiesta di un rinvio di almeno due anni non è un capriccio, ma una necessità per consentire alle aziende di adeguarsi senza penalizzare la loro competitività. Il settore ICT, infatti, è dinamico e ha bisogno di un contesto normativo che favorisca la crescita, non che la ostacoli. Il pacchetto omnibus digitale, annunciato dalla Commissione, potrebbe essere l'occasione per semplificare e chiarire, ma anche questo richiederà tempo.

L'esito di questo confronto determinerà il futuro dell'intelligenza artificiale in Europa. L'obiettivo è ambizioso: una governance responsabile dell'AI. Ma per raggiungerlo, è fondamentale un approccio pragmatico che tenga conto delle esigenze reali delle imprese. Solo così l'Europa potrà mantenere la sua posizione di leadership nell'innovazione, evitando che un eccesso di zelo normativo si trasformi in un freno allo sviluppo tecnologico.