GPT-5: La Grande Promessa e la Dura RealtàIl mondo dell'intelligenza artificiale è in fermento, e ogni nuova release di un modello di punta genera aspettative altissime. Parliamo di GPT-5, l'ultima creazione di OpenAI, che prima del suo lancio ha scatenato un'ondata di dichiarazioni audaci. Sam Altman, CEO di OpenAI, ha persino affermato che le sue capacità lo facevano sentire “inutile rispetto all’AI”, paragonando il peso del suo sviluppo a quello provato dagli ideatori della bomba atomica. Una retorica potente, non c'è che dire.Ma cosa è successo davvero dopo il rilascio? Contrariamente alle aspettative, il modello ha perlopiù deluso. Sono emerse subito errori evidenti nelle risposte di GPT-5, smentendo l'affermazione di Altman secondo cui il modello opererebbe come un “legittimo esperto a livello di dottorato in qualsiasi area di cui si abbia bisogno, su richiesta”. Anche la promessa di OpenAI che GPT-5 avrebbe automaticamente selezionato il modello AI più adatto alla domanda (un modello di ragionamento per query complesse, uno più veloce per quelle semplici) ha mostrato delle crepe, tanto che Altman stesso ha ammesso che la funzione è imperfetta e toglie all'utente il controllo. Insomma, un inizio un po' in salita.Eppure, c'è anche una nota positiva: sembra che GPT-5 abbia finalmente mitigato il problema di ChatGPT di elargire complimenti eccessivi. Un piccolo sollievo per chi preferisce un'interazione più diretta e meno zuccherosa. Nel complesso, come ha sottolineato Grace Huckins del MIT Technology Review, questa nuova versione sembra più un aggiornamento di prodotto – che offre modi più fluidi e accattivanti di conversare con ChatGPT – piuttosto che una vera e propria svolta che ridefinisce ciò che è possibile nell'AI.L'Evoluzione della Strategia: Dall'Intelligenza Generale all'Applicazione SpecificaPer molto tempo, le aziende di AI si sono concentrate sulla creazione del modello più intelligente possibile, una sorta di “cervello” universale, fiduciose che avrebbe eccelso in ogni campo, dalla poesia alla chimica organica. L'idea era che modelli più grandi, tecniche di addestramento migliori e scoperte tecniche avrebbero naturalmente portato a questo. Ma le cose stanno cambiando. La nuova strategia è spingere i modelli esistenti in ambiti più specifici, enfatizzando le applicazioni pratiche.Le aziende sono diventate più aggressive nelle loro promesse, sostenendo ad esempio che i loro modelli AI possono sostituire i programmatori umani, nonostante le prime evidenze suggeriscano il contrario. Una possibile spiegazione di questo cambio di rotta è che i giganti della tecnologia non hanno ancora raggiunto le scoperte che si aspettavano. Potremmo essere bloccati con miglioramenti marginali nelle capacità dei grandi modelli linguistici per il momento. Questo lascia alle aziende AI una sola opzione: lavorare con ciò che hanno a disposizione.GPT-5 e la Sanità: Un Terreno MinatoL'esempio più lampante di questa nuova strategia è il modo in cui OpenAI sta incoraggiando l'uso di GPT-5 per consigli medici, uno degli ambiti più delicati e rischiosi per l'AI. Inizialmente, OpenAI era molto cauta con le domande mediche, fornendo numerose avvertenze e rifiutandosi persino di rispondere a certe richieste. Ma, come riportato dal MIT Technology Review, queste avvertenze sono progressivamente scomparse con i nuovi modelli. Ora, i modelli non solo interpretano radiografie e mammografie, ma pongono domande di follow-up che portano a una diagnosi.A maggio, OpenAI ha segnalato la sua intenzione di affrontare direttamente le questioni mediche, annunciando HealthBench, un sistema per valutare l'efficacia dei sistemi AI in ambito sanitario, confrontando i loro pareri con quelli dei medici. A luglio, ha pubblicato uno studio a cui ha partecipato, rivelando che un gruppo di medici in Kenya ha commesso meno errori diagnostici quando supportato da un modello AI. Con il lancio di GPT-5, OpenAI ha iniziato esplicitamente a incoraggiare l'uso dei suoi modelli per consigli sanitari.Durante l'evento di lancio, Altman ha invitato sul palco Felipe Millon, un dipendente OpenAI, e sua moglie, Carolina Millon, a cui era stata recentemente diagnosticata una forma multipla di cancro. Carolina ha raccontato di aver chiesto aiuto a ChatGPT per le sue diagnosi, caricando i risultati delle biopsie per tradurre il gergo medico e chiedendo all'AI consigli su decisioni importanti, come intraprendere o meno la radioterapia. Questo è stato presentato come un esempio potente di come l'AI possa ridurre il divario di conoscenza tra medici e pazienti.I Rischi e la Questione della ResponsabilitàCon questo cambiamento di approccio, OpenAI sta navigando in acque pericolose. L'azienda sta utilizzando prove che i medici possono beneficiare dell'AI come strumento clinico (come nello studio in Kenya) per suggerire che persone senza alcuna formazione medica dovrebbero chiedere consigli al modello AI sulla propria salute. Il problema è che molte persone potrebbero seguire questi consigli senza consultarli con un medico, e ora che il chatbot raramente lo suggerisce, è ancora più probabile che lo facciano.Due giorni prima del lancio di GPT-5, gli Annals of Internal Medicine hanno pubblicato un articolo su un uomo che, seguendo una conversazione con ChatGPT, ha smesso di assumere sale e ha iniziato a ingerire quantità pericolose di bromuro. Ha sviluppato un'intossicazione da bromuro – quasi scomparsa negli Stati Uniti dopo che la Food and Drug Administration ha limitato l'uso del bromuro nei farmaci da banco negli anni '70 – ed è quasi morto, trascorrendo settimane in ospedale. Un caso agghiacciante che sottolinea i pericoli.Il punto cruciale di tutto questo è la responsabilità. Quando le aziende AI passano dalla promessa di un'intelligenza generale all'offerta di un'utilità simile a quella umana in un campo specifico come la sanità, sorge una seconda domanda, ancora senza risposta: cosa succederà quando si commetteranno errori? Allo stato attuale, ci sono poche indicazioni che le aziende tecnologiche saranno ritenute responsabili per i danni causati.“Quando i medici ti danno consigli medici dannosi a causa di errori o pregiudizi, puoi denunciarli per negligenza e ottenere un risarcimento”, afferma Damien Williams, assistente professore di scienza dei dati e filosofia all'Università della Carolina del Nord a Charlotte. “Quando ChatGPT ti dà consigli medici dannosi perché è stato addestrato su dati pregiudizievoli, o perché le ‘allucinazioni’ sono inerenti al funzionamento del sistema, qual è il tuo ricorso?” Una domanda che ci lascia con un importante interrogativo: il progresso tecnologico deve sempre andare di pari passo con un adeguato quadro etico e legale. Senza risposte chiare su chi sarà responsabile, il rischio di un uso improprio e dannoso dell'AI, specialmente in settori critici come la salute, rimane elevato.