L'intelligenza artificiale non è più il Far West: l'Italia ha una legge L'intelligenza artificiale non è più terra di nessuno, almeno non in Italia. Sulla scia dell'AI Act europeo, il nostro Paese ha deciso di giocare d'anticipo e mettere nero su bianco le regole per gestire il lato oscuro di questa tecnologia. Con la Legge numero 132/2025, in vigore dal prossimo 10 ottobre, vengono introdotti nuovi reati e inasprite le pene per chi usa l'AI a scopo criminale. Ma cosa significa questo, in pratica? Significa che creare un video falso per diffamare qualcuno o usare un algoritmo per una truffa non sarà più solo una questione di etica, ma un vero e proprio reato penale. Il legislatore ha cercato di dare risposte concrete a problemi che, fino a ieri, sembravano confinati alla fantascienza. Un passo necessario, anche se, come vedremo, la strada per una regolamentazione completa è ancora lunga. Deepfake nel mirino: il nuovo reato di diffusione illecita La novità più dirompente è senza dubbio l'introduzione dell'articolo 612-quater nel codice penale. Questa norma punisce chiunque diffonde contenuti falsificati – immagini, video o audio – creati con l'AI con lo scopo di causare un "danno ingiusto". Il riferimento è chiaramente ai deepfake, contenuti talmente realistici da poter ingannare chiunque sulla loro autenticità. Facciamo un esempio concreto. Se qualcuno crea e diffonde un video in cui un politico sembra annunciare le dimissioni, o in cui un manager ammette una frode, da oggi commette un reato specifico. La legge, come analizzato in un approfondimento di Agenda Digitale AI, richiede però il "dolo specifico", ovvero l'intenzione precisa di danneggiare. Un requisito che, secondo alcuni esperti, potrebbe rendere difficile provare la colpevolezza in tribunale. Un altro punto debole riguarda la procedibilità. Di norma, serve la querela della vittima. Si procede d'ufficio solo in casi gravi, come quando la vittima è minorenne o il fatto è connesso ad altri delitti. Questo lascia scoperte quelle persone che, pur non essendo legalmente incapaci, si trovano in una condizione di debolezza psicologica o di soggezione e potrebbero non avere la forza di denunciare. Se l'AI è un'arma: l'aggravante che spaventa le aziende La legge non si limita a creare nuovi reati, ma riconosce che l'intelligenza artificiale può agire come un potente "amplificatore d'offesa". Per questo, ha introdotto una nuova circostanza aggravante comune: se un reato viene commesso usando un sistema di AI come "mezzo insidioso", le pene aumentano. Pensiamo a una truffa telefonica. Una cosa è un criminale che cerca di imitare la voce di un parente per chiedere soldi. Tutt'altra cosa è se usa un'AI per clonare perfettamente quella voce, rendendo la truffa quasi impossibile da smascherare. In questo secondo caso, grazie alla nuova legge, la condanna sarà più pesante. L'uso dell'AI diventa un fattore che ostacola la difesa della vittima e aggrava le conseguenze del reato. Un campanello d'allarme per le imprese Questa novità ha un impatto diretto anche sulla responsabilità delle aziende (secondo il D.Lgs 231/2001). Le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale sono ora chiamate a un maggior rigore. Dovranno aggiornare i loro modelli organizzativi (MOG) per mappare i rischi legati agli algoritmi, documentare le logiche decisionali e formare il personale per prevenire usi illeciti. Un compito non da poco, che richiederà investimenti e competenze specifiche. Diritto d'autore e delega al Governo: i nodi da sciogliere La legge interviene anche sul tema caldissimo del copyright. Viene finalmente messo nero su bianco un principio che la giurisprudenza aveva già tracciato: le opere create con l'ausilio dell'AI sono protette dal diritto d'autore, a patto che l'apporto creativo umano sia riconoscibile e prevalente. Allo stesso tempo, si vieta ai modelli di AI di "saccheggiare" indiscriminatamente contenuti protetti per il proprio addestramento, introducendo sanzioni per il Text and Data Mining non autorizzato. Tuttavia, il testo lascia aperti molti interrogativi. Gran parte della disciplina di dettaglio è affidata a una vasta delega al Governo. Sarà l'esecutivo, con futuri decreti, a dover definire strumenti cautelari, criteri di imputazione della responsabilità e regole per l'uso dell'AI nelle indagini. Una scelta che, se da un lato accelera i tempi, dall'altro rischia di portare a interventi frammentari e meno ponderati rispetto a un dibattito parlamentare completo. Insomma, l'Italia ha piantato un primo, importante paletto nel tentativo di governare la rivoluzione AI. La Legge 132/2025 è un punto di partenza, non di arrivo. Dimostra la volontà di non lasciare che la tecnologia evolva in un vuoto normativo, ma la vera sfida sarà mantenere il passo, affinando le regole man mano che emergono nuove minacce e nuove opportunità. La partita contro l'uso criminale dell'AI è appena iniziata.