L'intelligenza artificiale irrompe nelle nostre vite a una velocità sconcertante, portando con sé innovazioni entusiasmanti ma anche interrogativi complessi. Uno dei più urgenti riguarda la responsabilità civile: chi risponde quando un sistema di AI, magari un'auto a guida autonoma o un robot chirurgico, causa un danno? Sembra una domanda da fantascienza, eppure è una realtà imminente che l'Europa sta faticando ad affrontare con una normativa chiara.Il 2 agosto sono entrate in vigore alcune importanti disposizioni dell'AI Act, la prima legge al mondo sull'intelligenza artificiale. Eppure, come evidenzia un recente e autorevole studio commissionato dal Parlamento Europeo, manca ancora un pezzo fondamentale: un quadro normativo armonizzato sulla responsabilità civile. Senza questo, il rischio è la frammentazione legale, l'incertezza per le aziende e, soprattutto, una tutela insufficiente per noi cittadini. È il professor Andrea Bertolini, docente di diritto privato a Pisa, a firmare questa analisi critica, una vera e propria requisitoria contro l'attuale inerzia legislativa. Ne abbiamo parlato con Andrea Michinelli di Cybersecurity360 AI, che ha approfondito il tema in un recente articolo (Cybersecurity360 AI).Il Nodo della Responsabilità: Colpa o Rischio?Quando si parla di responsabilità civile, ci sono principalmente tre configurazioni. La responsabilità per colpa, la più comune, ci dice che si risponde di un danno solo se si dimostra che è stato commesso un errore, una negligenza. La vittima deve provare la colpa, il danno e il nesso causale. Poi c'è la responsabilità per colpa con presunzioni, dove la colpa è presunta, ma chi ha causato il danno può dimostrare il contrario per andare esente. Infine, c'è la responsabilità oggettiva, dove si risponde del danno a prescindere dalla colpa. In questo caso, la responsabilità scatta per il solo fatto che il sistema ha causato un danno, indipendentemente da negligenze, salvo casi eccezionali come la colpa grave della vittima. Per le AI ad alto rischio, come quelle che operano in settori critici, la responsabilità oggettiva appare la via più sensata.Perché è così importante questa distinzione? Perché cambia radicalmente la vita di chi subisce un danno. Immaginate un intervento chirurgico assistito da AI che va storto. Se vige la responsabilità per colpa, il paziente dovrà dimostrare che il produttore dell'AI, o l'operatore, ha commesso un errore. Un'impresa titanica, considerando l'opacità dei sistemi algoritmici (il famoso “effetto black box”). Se invece vige la responsabilità oggettiva, il percorso per ottenere un risarcimento sarebbe molto più semplice e diretto.La Grande Inversione della Strategia EuropeaLa storia della normativa europea sulla responsabilità dell’AI è un vero e proprio romanzo. Tutto inizia nel 2017 con la risoluzione Delvaux-Stehres del Parlamento Europeo, che metteva la responsabilità civile al centro del dibattito, proponendo un regime di responsabilità oggettiva per i sistemi AI ad alto rischio. L'idea era chiara: chi trae beneficio da una tecnologia ad alto rischio deve anche internalizzarne i costi. Nel 2019, un gruppo di esperti nominato dalla Commissione confermò questa linea, suggerendo di modernizzare la Direttiva sulla responsabilità per danno da prodotti difettosi (PLD) e di introdurre un regime di responsabilità oggettiva per l'operatore.Ma poi, nel 2021, arriva quella che lo studio definisce la “grande inversione”. La Commissione von der Leyen sposta il baricentro sull'AI Act, concentrandosi sulla conformità ex ante (valutazione del rischio, certificazione, sorveglianza del mercato), lasciando la responsabilità civile a un'iniziativa legislativa separata e futura. Nel 2022, la proposta di Direttiva sulla responsabilità per l'IA (AILD) abbandona del tutto l'approccio oggettivo, limitandosi a norme procedurali per alleggerire l'onere della prova nei regimi nazionali. E il colpo di scena finale? Nel 2025, la Commissione annuncia l'intenzione di ritirare la proposta AILD, citando la mancanza di consenso politico. Un'inversione completa, che ha lasciato un vuoto normativo preoccupante.Perché si è Arrivati a Questo Punto?Le ragioni di questo dietrofront sono molteplici. Da un lato, la Commissione ha sostenuto la mancanza di consenso politico tra i legislatori e gli Stati membri. Dall'altro, gruppi industriali e tecnocratici hanno esercitato forti pressioni per semplificare le normative digitali, temendo che un ulteriore strato regolatorio potesse "soffocare" le imprese, specialmente le PMI. La logica è stata: meglio niente che qualcosa di imperfetto. Ma questa logica è davvero valida?La verità è che, come spesso accade, le lobby del settore tech hanno avuto un ruolo determinante. Un regime di responsabilità civile più stringente avrebbe potuto rappresentare una minaccia per i loro modelli di business. Il risultato? L'Europa, un tempo all'avanguardia su questi temi, si trova ora a navigare a vista, con il rischio concreto di una frammentazione normativa tra i 27 Stati membri. Ogni paese potrebbe adottare le proprie regole, creando un vero e proprio caos legale, un'"over regulation" da frammentazione, come la definisce lo studio. L'Italia, ad esempio, con il suo DDL sull'AI, delega al governo la previsione di strumenti di tutela per il danneggiato, inclusa la ripartizione dell'onere della prova. Ma questo approccio nazionale, se non armonizzato, non farà che aumentare l'incertezza per le imprese che operano a livello transnazionale.Le Conseguenze di un Vuoto NormativoNon avere una normativa europea chiara sulla responsabilità civile dell'AI non significa mantenere uno "status quo innocuo". Significa, al contrario, innescare una serie di conseguenze negative. Il singolo consumatore danneggiato si troverebbe in una posizione di estrema debolezza processuale. La tutela, da diritto esigibile, si trasformerebbe in una concessione. I danni non patrimoniali, come il danno psicologico o reputazionale causato da un'AI difettosa, difficilmente troverebbero ristoro. Saranno risarciti più facilmente i danni evidenti e materiali, mentre altre forme di pregiudizio reale per il consumatore rischiano di restare senza risposta.In questo scenario, il settore assicurativo è destinato a diventare il "pilastro fondamentale" della gestione del rischio AI. In assenza di leggi chiare, le compagnie assicurative assumeranno un ruolo di "regolatore de facto", imponendo agli operatori di AI l'adozione di best practice e standard tecnici per poter assicurare i rischi. Questo potrebbe portare a prodotti AI mediamente più sicuri, è vero, ma a discapito della tutela del singolo, che si troverà a dover affrontare un sistema meno trasparente e più complesso per ottenere giustizia.Umanizzare la Nostra Gestione dell'AIL'intelligenza artificiale è qui per restare, e con essa le sue implicazioni, positive e negative. Se un'AI ti investe, ti svuota il conto in banca o, peggio, ti causa un danno fisico o psicologico, ci deve essere qualcuno da chiamare in giudizio. Non l'algoritmo in sé, ma chi lo ha creato, addestrato, o immesso sul mercato. Il ritiro della Direttiva sulla responsabilità civile dell'IA è un segnale preoccupante, un segno che forse, di fronte alla complessità algoritmica, il diritto sta faticando a trovare la sua strada.Lo studio del professor Bertolini, come sottolineato da Andrea Michinelli, è un appello. Un appello a non rinunciare a "umanizzare" la nostra gestione dell'AI. Chiedere a un operatore di assumersi una responsabilità oggettiva significa chiedergli di accettare il costo giuridico e morale della propria innovazione. Significa garantire che il progresso tecnologico vada di pari passo con la giustizia e la protezione dei cittadini. Altrimenti, rischiamo di trovarci in un futuro dove l'intelligenza è artificiale, ma la furbizia resta fin troppo umana, e la responsabilità si smaterializza in un cloud di dati, lasciando il danneggiato senza risposte.