AI Act: Linee Guida UE per Modelli AI di Scopo Generale
La Commissione Europea ha approvato le linee guida per l'AI Act, chiarendo gli obblighi previsti per i fornitori di modelli di AI di scopo generale (GPAI). Questo passo è fondamentale per promuovere un'innovazione sicura e responsabile nel settore dell'intelligenza artificiale in Europa.
AI Act: Obblighi Chiariti per i Modelli AI di Scopo Generale
L'Intelligenza Artificiale è in continua evoluzione, e con essa la necessità di un quadro normativo chiaro e sicuro. L'Unione Europea, pioniere in questo campo, ha fatto un passo significativo con l'approvazione delle linee guida per l'AI Act, specificamente per i modelli di AI di scopo generale. Questo è un aggiornamento cruciale per aziende e sviluppatori che operano nel settore.
Il 21 luglio 2025, la Commissione Europea ha pubblicato le linee guida volte a chiarire gli obblighi previsti dall’AI Act per i fornitori di modelli di intelligenza artificiale di uso generale (GPAI). L'obiettivo? Aiutare l'ecosistema AI a comprendere come applicare le nuove disposizioni, promuovendo innovazione, trasparenza e sicurezza (AI4Business Italia).
Cosa sono i Modelli AI di Scopo Generale (GPAI)?
L'AI Act definisce un “modello di AI di scopo generale” come un'intelligenza artificiale che "mostra una significativa generalità ed è capace di eseguire in modo competente una vasta gamma di compiti distinti… e che può essere integrato in una varietà di sistemi o applicazioni a valle". In pratica, parliamo di modelli versatili, come quelli in grado di generare testo, immagini o video.
Per identificare questi modelli, la Commissione ha stabilito un criterio indicativo basato sulle risorse computazionali utilizzate per l'addestramento, misurate in FLOP (operazioni a virgola mobile). Un modello è considerato GPAI se il suo training compute supera i 10^23 FLOP ed è in grado di generare linguaggio, testo-immagine o testo-video. Questo include modelli addestrati su grandi quantità di dati con circa un miliardo di parametri.
Non rientrano in questa definizione, ad esempio, modelli che svolgono compiti molto specifici come la trascrizione vocale, la generazione di musica o l'upscaling di immagini, anche se richiedono un elevato training compute.
Obblighi e Scadenze: Cosa Devono Sapere i Fornitori
Le linee guida chiariscono chi è considerato "fornitore" e quando un modello è "immesso sul mercato". Un fornitore è chi sviluppa o fa sviluppare un modello GPAI e lo immette sul mercato "a proprio nome o marchio". L'immissione sul mercato può avvenire tramite librerie software, API, download diretti, o integrazione in applicazioni.
Modifiche ai Modelli Esistenti
Un aspetto importante riguarda i "modificatori a valle". Se una modifica comporta un cambiamento significativo nella generalità, nelle capacità o nel rischio sistemico del modello (ad esempio, se il training compute per la modifica supera un terzo di quello originale), il modificatore diventa a sua volta fornitore e soggetto agli obblighi.
Modelli con Rischio Sistemico
Una categoria speciale sono i "modelli di AI di scopo generale con rischio sistemico". Questi presentano rischi elevati per le loro capacità ad alto impatto. Un modello è presunto avere rischio sistemico se il training compute cumulativo supera i 10^25 FLOP. I fornitori di tali modelli devono affrontare obblighi aggiuntivi, tra cui:
- Conduzione di valutazioni del modello.
- Segnalazione di incidenti gravi.
- Garanzia di un adeguato livello di protezione della cibersicurezza.
Questi fornitori devono notificare la Commissione entro due settimane se il modello raggiunge o si prevede che raggiunga la soglia di rischio sistemico.
Esenzioni per l'Open Source
Per promuovere l'innovazione, l'AI Act prevede esenzioni da alcuni obblighi per i fornitori di modelli AI rilasciati sotto licenza libera e open-source. Queste esenzioni si applicano se il modello non presenta rischio sistemico e se la licenza consente accesso, uso, modifica e distribuzione del modello, rendendo pubblicamente disponibili i parametri e le informazioni sull'architettura. La mancanza di monetizzazione diretta è una condizione cruciale per beneficiare di queste esenzioni.
Attenzione: le esenzioni non si applicano all'obbligo di implementare una politica conforme alla legislazione sul diritto d'autore dell'Unione e di rendere pubblico un riepilogo del contenuto utilizzato per l'addestramento.
Tempistiche e Vigilanza
Gli obblighi per i fornitori di modelli AI di scopo generale entreranno in vigore il 2 agosto 2025. Per i modelli immessi sul mercato prima di tale data, i fornitori avranno tempo fino al 2 agosto 2027 per conformarsi. Le sanzioni potranno essere imposte a partire dal 2 agosto 2026.
L'Ufficio Europeo per l'Intelligenza Artificiale (AI Office) sarà l'organo incaricato di supervisionare e far rispettare questi obblighi, adottando un approccio collaborativo. L'adesione a un codice di condotta valutato come adeguato dall'AI Office e dal Consiglio (AI Board) servirà come mezzo per dimostrare la conformità.
Le linee guida, frutto di un ampio processo di consultazione, non sono legalmente vincolanti ma riflettono l'interpretazione ufficiale della Commissione e orienteranno le future attività di controllo e supporto. Rappresentano una "bussola" per gli attori dell'AI, garantendo che l'innovazione proceda di pari passo con responsabilità e sicurezza .
In un contesto in cui la corsa all'AI solleva interrogativi sulla coesistenza tra velocità e sicurezza, queste linee guida offrono un percorso chiaro per navigare il complesso panorama normativo, assicurando uno sviluppo etico e sostenibile dell'intelligenza artificiale in Europa.