AI in Medicina: Quando l'Intelligenza Artificiale 'Allucina'

Un'intelligenza artificiale medica di Google ha 'inventato' una parte del cervello. Questo errore, apparentemente un refuso, rivela i profondi pericoli delle 'allucinazioni' AI in contesti critici come la diagnostica medica.

L'AI che si inventa parti del cervello: un campanello d'allarme

Immaginate questa scena: un radiologo esamina la vostra scansione cerebrale e, con la consueta precisione, identifica un'anomalia nei gangli della base. Un'area importantissima per il controllo motorio, l'apprendimento e le emozioni. Ora, immaginate che al posto del medico ci sia un'intelligenza artificiale, e che questa vi dica che il problema risiede nei vostri 'gangli basilari', una parte del cervello che semplicemente non esiste. Questo non è uno scenario fantascientifico, ma un errore reale commesso da Med-Gemini, un modello di AI sanitaria di Google, come riportato da The Verge AI.

L'errore può sembrare banale, un semplice refuso, ma la realtà è ben più complessa e preoccupante. L'AI ha confuso e fuso due termini medici reali: i 'gangli della base' (basal ganglia) e l'arteria 'basilare' (basilar artery). Se un radiologo esperto non cadrebbe mai in un tranello simile, la crescente dipendenza da questi strumenti solleva una domanda inquietante: cosa succede quando i medici non si accorgono dell'errore? È un monito fondamentale sulla necessità di una supervisione umana rigorosa, specialmente in contesti critici come la diagnostica medica.

Le 'allucinazioni' dell'AI: più di un semplice errore

Google ha liquidato l'incidente come un 'errore di battitura'. Ma per esperti come Bryan Moore, neurologo e ricercatore con esperienza nell'AI, si tratta di una pericolosa 'allucinazione', un termine usato per descrivere quando un modello AI genera informazioni false ma presentate come fatti. Moore ha segnalato l'errore a Google, che inizialmente ha corretto silenziosamente il blog post, per poi ripristinare la dicitura originale con una nota che definiva 'basilar' una 'comune trascrizione errata di 'basal' che Med-Gemini ha imparato dai dati di training'. Un'ammissione che suona più come una giustificazione che una rassicurazione.

Maulin Shah, Chief Medical Information Officer di Providence, un sistema sanitario con 51 ospedali, ha dichiarato a The Verge che un errore del genere è "super pericoloso". "Due lettere, ma è un grosso problema", ha sottolineato. Il punto cruciale è che, sebbene l'AI possa essere incredibilmente accurata la maggior parte delle volte, è proprio questa affidabilità apparente a creare un rischio: l'"automation bias". I professionisti sanitari, fidandosi del sistema, potrebbero essere meno propensi a ricontrollare i risultati generati dall'AI, specialmente quando sono quasi sempre corretti.

Quando l'AI non sa dire 'non lo so'

Il problema non si limita a Med-Gemini. Altri modelli AI sanitari, come MedGemma di Google, hanno mostrato comportamenti simili. La dottoressa Judy Gichoya, professoressa associata presso la Emory University School of Medicine, ha dimostrato come MedGemma potesse dare risposte diverse e inaccurate a seconda di come veniva formulata una domanda, anche con la stessa immagine radiografica. "La loro natura è che [tendono] a inventare cose, e non dicono 'non lo so', il che è un problema enorme per settori ad alto rischio come la medicina", ha affermato Gichoya.

Questo aspetto è cruciale. Un medico, di fronte a un'incertezza, sa riconoscere i propri limiti e chiedere un secondo parere. Un'AI, invece, tende a "confabulare", ovvero a generare informazioni plausibili ma errate, proprio come accade in alcune condizioni neurologiche umane. E se l'AI non riconosce i propri limiti, e chi la usa non è sufficientemente critico, le conseguenze possono essere disastrose.

La frontiera incerta dell'AI in sanità: tra innovazione e sicurezza

L'adozione dell'AI in sanità è una spada a doppio taglio. Da un lato, offre un potenziale immenso per migliorare l'efficienza, la velocità delle diagnosi e l'analisi di dati complessi. Dall'altro, introduce rischi etici e pratici significativi. Il dottor Jonathan Chen, professore associato alla Stanford School of Medicine, ha descritto questo momento come una "soglia molto strana" in cui molte di queste tecnologie vengono adottate "troppo velocemente nella cura clinica" pur non essendo ancora mature.

La soluzione non è rifiutare l'AI, ma integrarla con un approccio cauto e critico. Michael Pencina, Chief Data Scientist di Duke Health, ritiene che l'errore di Med-Gemini sia più probabilmente un'allucinazione che un refuso. La posta in gioco è alta in medicina, e per le applicazioni ad alto rischio, l'asticella della prova deve essere molto più alta. "Nel mio pensiero, l'AI deve avere un margine di errore molto più basso di un essere umano", ha detto Shah. "Altrimenti, preferisco che siano i miei umani a fare il lavoro. Con gli umani so come parlare e dire: 'Ehi, esaminiamo insieme questo caso. Come avremmo potuto fare diversamente?' Cosa farai quando lo farà l'AI?"

Questo dibattito evidenzia la necessità di sviluppare meccanismi di controllo robusti, magari con un'AI che controlla un'altra AI per il rischio di allucinazioni, e soprattutto, di mantenere sempre la supervisione umana come ultimo baluardo. L'obiettivo non è sostituire il medico, ma potenziarlo. E in questo percorso, la trasparenza sugli errori e la capacità di imparare da essi saranno fondamentali per garantire che l'innovazione tecnologica proceda di pari passo con la sicurezza del paziente.