L'AI Act è realtà, ma chi paga il conto dei danni?L'Intelligenza Artificiale, con le sue promesse di innovazione e progresso, sta rapidamente diventando parte integrante delle nostre vite. Ma mentre sistemi sempre più sofisticati prendono decisioni autonome, sorge una domanda cruciale: chi risponde quando qualcosa va storto? L'Europa, con il suo pionieristico AI Act, ha fatto un passo avanti nella regolamentazione dell'IA, ma un recente studio commissionato dal Parlamento Europeo lancia un allarme chiaro: sulla responsabilità civile, siamo ancora in alto mare.Il 2 agosto sono entrate in vigore alcune importanti disposizioni dell'AI Act, un regolamento che mira a garantire che l'IA sia sviluppata e utilizzata in modo sicuro e conforme ai diritti fondamentali. Tuttavia, come sottolinea Andrea Michinelli di Cybersecurity360.it, manca ancora un quadro normativo armonizzato sulla responsabilità civile. Questo vuoto crea incertezza per le imprese e lascia i cittadini senza una tutela adeguata in caso di danni. Insomma, un gigante normativo come l'AI Act poggia su fondamenta ancora un po' traballanti.Un labirinto normativo: la responsabilità oggettiva svanitaIl dibattito sulla responsabilità civile dell'IA non è nuovo. Già nel 2017, la risoluzione Delvaux-Stehres del Parlamento Europeo auspicava un regime di responsabilità oggettiva per i sistemi AI ad alto rischio. L'idea era semplice: chi trae beneficio da una tecnologia potenzialmente pericolosa, deve assumersi la responsabilità dei danni che essa può causare, a prescindere dalla colpa. Un principio di efficienza economica e, soprattutto, di giustizia sociale.Questo approccio, ribadito anche da un gruppo di esperti nel 2019, è stato però progressivamente diluito. La proposta di Regolamento del Parlamento del 2020 prevedeva ancora un doppio regime: responsabilità oggettiva per i sistemi ad alto rischio e presunzione di colpa per gli altri. Ma nel 2021, con l'arrivo dell'AI Act, la Commissione von der Leyen ha cambiato rotta. Il focus si è spostato sulla conformità ex ante, lasciando la questione della responsabilità civile a un'iniziativa legislativa separata e futura.La Direttiva sulla responsabilità per l'IA (AILD): un'occasione persa?Nel 2022, la Commissione ha presentato la Direttiva sulla responsabilità per l'IA (AILD). Ma, ahimè, anche qui l'ambizione iniziale si è persa per strada. Invece di introdurre nuove regole sostanziali, l'AILD si limitava a norme procedurali, lasciando agli Stati membri il compito di adattare i propri regimi di responsabilità per colpa. Un approccio "leggero" che, secondo lo studio del professor Andrea Bertolini dell'Università di Pisa, si è rivelato inefficace e potenzialmente dannoso.E non è finita qui. Nel suo programma di lavoro per il 2025, la Commissione ha annunciato l'intenzione di ritirare la proposta di AILD, citando la mancanza di consenso politico e il rischio di complicare ulteriormente il quadro normativo. Una decisione che suona come una resa di fronte alle pressioni delle lobby del settore tech, preoccupate che un regime di responsabilità civile aggiuntivo potesse minacciare i loro modelli di business. Il risultato? L'Europa rischia una "frammentazione" normativa, con 27 diverse normative nazionali e un caos legale che disincentiva l'innovazione e penalizza i cittadini.L'era delle assicurazioni: una soluzione o un problema?In questo scenario di incertezza normativa, emerge un protagonista inatteso: il settore assicurativo. Lo studio di Bertolini suggerisce che l'abbandono di una normativa specifica sulla responsabilità non crei un vuoto, ma piuttosto un "mercato del rischio" gestito dalle compagnie assicurative. In assenza di regole chiare, le imprese cercheranno di trasferire il rischio a soggetti terzi, rendendo le assicurazioni dei "regolatori de facto".Questo significa che le compagnie assicurative, per prezzare il rischio, richiederanno agli operatori di IA l'adozione di best practice e standard tecnici elevati. L'obiettivo è trasformare il rischio incerto in costi assicurabili e trasferibili, spostando la gestione della responsabilità dal tribunale (ex post) al contratto di polizza (ex ante). Un meccanismo che potrebbe incentivare le imprese a implementare misure di sicurezza e trasparenza fin da subito, ma che presenta anche dei lati oscuri.I rischi per i cittadini e il mercato unicoSe da un lato l'"era delle assicurazioni" potrebbe portare a prodotti di IA mediamente più sicuri, dall'altro lascerebbe il singolo consumatore danneggiato in una posizione di estrema debolezza processuale. La tutela, da diritto esigibile, potrebbe trasformarsi in una "concessione" dipendente dalla volontà della controparte assicurativa di evitare un lungo contenzioso. Danni non patrimoniali, come il danno psicologico o reputazionale, sarebbero difficili da quantificare e risarcire. Senza contare la frammentazione normativa, che porterebbe a disparità di trattamento tra i vari Stati membri, inaccettabile in un mercato unico.La responsabilità civile dell'AI: una questione di "umanità"La questione della responsabilità civile dell'AI non è solo un tecnicismo legale. È una questione di "umanità". Come sottolinea lo studio, non si tratta di "umanizzare" l'AI, ma di "umanizzare" la nostra gestione dell'AI. Chiedere a un operatore di assumersi una responsabilità oggettiva significa chiedergli di accettare il costo giuridico e morale della propria innovazione. Significa riconoscere che, anche in un mondo sempre più dominato dagli algoritmi, la responsabilità ultima deve rimanere nelle mani dell'uomo.Senza una normativa europea armonizzata, rischiamo di costruire un "gigante normativo" come l'AI Act su fondamenta fragili. E quando l'intelligenza artificiale "investe" un cittadino, o gli "cancella" il conto in banca, vogliamo sapere chi paga il conto. Non l'algoritmo in sé, ma chi lo ha addestrato, nutrito o lasciato libero nella dimensione digitale. La discussione è aperta, le proposte sul tavolo ci sono. Ora, sta all'Europa decidere se vuole essere leader nell'innovazione responsabile, o lasciare che la "furbizia umana" prevalga sull'urgenza di una tutela chiara e uniforme.