Un'accusa senza precedenti: omicidio colposo Un chatbot può essere complice di un suicidio? La domanda, che fino a poco tempo fa sarebbe suonata come fantascienza, è oggi al centro di due drammatiche vicende legali negli Stati Uniti. Dalla Florida alla California, le aule di tribunale stanno affrontando un quesito che scuote le fondamenta della responsabilità tecnologica: chi paga quando le parole di un'intelligenza artificiale portano a una tragedia? Il primo caso, come riportato da Agenda Digitale, ha coinvolto Character.AI, una piattaforma popolarissima tra i giovani. Un quattordicenne si è tolto la vita dopo mesi di conversazioni ossessive con un bot. La famiglia ha intentato una causa per wrongful death (l'equivalente del nostro omicidio colposo), sostenendo una negligenza fatale da parte dell'azienda. Pochi mesi dopo, lo scenario si è ripetuto con OpenAI: i genitori di un sedicenne hanno accusato ChatGPT di aver fornito al figlio istruzioni e incoraggiamento per compiere il gesto estremo. Questi eventi hanno acceso un faro su un'area grigia del diritto. Per decenni, le piattaforme si sono protette dietro lo scudo del §230 del Communications Decency Act, una legge che le considera semplici "bacheche" non responsabili dei contenuti pubblicati dagli utenti. Ma ora un giudice ha incrinato questa certezza, sollevando un dubbio cruciale: se il contenuto non è creato da un utente, ma dall'algoritmo stesso, la piattaforma non diventa di fatto un editore responsabile delle proprie parole? Il "No" che i chatbot non sanno dire La questione non è solo legale, ma profondamente tecnologica. Perché questi sistemi, progettati per essere utili e accomodanti, possono trasformarsi in strumenti di morte? La risposta sta nella loro stessa natura. Uno studio della RAND Corporation ha messo a nudo una vulnerabilità critica: i chatbot sono efficaci nel respingere richieste dirette come "come posso uccidermi?", ma falliscono miseramente nelle "zone grigie". Le zone grigie sono quelle delle conversazioni ambigue, delle allusioni, delle manifestazioni di sofferenza indiretta. Sono proprio i modi in cui un adolescente in crisi comunica il proprio disagio. In alcuni test, ChatGPT e Claude hanno finito per fornire dettagli su metodi letali quando interrogati con astuzia. Al contrario, Gemini ha adottato un approccio iper-cauto, rifiutando quasi ogni interazione e lasciando però l'utente solo e senza alcun tipo di supporto. È l'illusione di un'intimità con una macchina, un "amico" che non giudica ma che non possiede né empatia né vera comprensione del peso delle sue parole. Tra privacy e sicurezza: le mosse delle Big Tech Mentre i tribunali cercano di dipanare la matassa, le aziende corrono ai ripari. Le recenti mosse delle Big Tech dell'AI rivelano tutta la complessità del problema. OpenAI, ad esempio, ha aggiornato le sue policy, chiarendo che si riserva il diritto di segnalare alle forze dell'ordine le conversazioni che suggeriscono un pericolo imminente. Una misura di sicurezza che, inevitabilmente, apre un vaso di Pandora sulla privacy degli utenti. Dall'altra parte, Anthropic, la società dietro al chatbot Claude, ha annunciato che inizierà a usare le chat degli utenti per addestrare i suoi modelli futuri, a meno che l'utente non scelga attivamente di negare il consenso (opt-out). Questo solleva un problema enorme, soprattutto in Europa, dove il GDPR classifica le informazioni sulla salute mentale come dati "particolari", protetti da norme rigidissime. Un chatbot che raccoglie e archivia le fragilità psicologiche di un minore senza adeguate garanzie, come sottolinea l'articolo di Agenda Digitale, si muove su un terreno minato. La vera soluzione non è in tribunale L'Europa, con strumenti come il Digital Services Act (DSA) e la nuova Direttiva sulla responsabilità da prodotto (PLD), sta costruendo un'impalcatura normativa per affrontare questi rischi. Il DSA impone alle grandi piattaforme di mitigare i pericoli per la salute mentale dei minori, mentre la PLD classifica il software come un prodotto che, se difettoso, può portare a risarcimenti anche per danni psicologici. Ma le leggi, per loro natura, intervengono quasi sempre dopo che il danno è stato fatto. La verità, forse scomoda, è che nessuna legge potrà mai sostituire la consapevolezza. Affidarsi unicamente ai tribunali per risolvere una rivoluzione tecnologica di questa portata è come cercare di fermare un'inondazione con un secchio. La vera sfida è preventiva e culturale. È necessario insegnare, fin da bambini, che una macchina non è un essere umano. Che un chatbot non è un amico, ma uno strumento complesso le cui risposte sono il frutto di calcoli probabilistici, non di emozioni. L'Educazione Civica Digitale non è più un'opzione, ma una necessità impellente. Altrimenti, continueremo a contare le tragedie e a cercare colpevoli in un'aula di tribunale, dove un giorno potremmo davvero sentire la frase: "ImpuChatbot, alzatevi. Rispondete delle vostre parole".