L'IA pensa? Il dibattito che infiamma la Silicon Valley (e non solo) Da quando i modelli linguistici di grandi dimensioni (LLM) come GPT-4 sono entrati nelle nostre vite, una domanda riecheggia con insistenza: ma le IA pensano davvero? La questione non è solo accademica, ma divide filosofi, informatici e il grande pubblico. Da un lato, c'è chi liquida queste tecnologie come semplici "pappagalli stocastici", macchine sofisticate addestrate a prevedere la parola successiva senza alcuna reale comprensione. Dall'altro, c'è chi intravede i primi barlumi di una nuova forma di intelligenza. La fazione degli scettici, che l'esperto Riccardo Manzotti definisce pittorescamente "next-tokenisti", ha argomenti solidi. Sostengono che, per quanto impressionanti, i risultati degli LLM sono il frutto di complessi calcoli statistici su enormi quantità di testo. Secondo Walter Quattrociocchi, citato in un recente articolo, gli LLM "non capiscono il mondo: predicono la parola successiva in una sequenza [...] È un’operazione statistica, non epistemica". In questa visione, l'intelligenza che percepiamo è solo una nostra proiezione, un'illusione generata dalla fluidità linguistica della macchina. Questo scetticismo porta a un fenomeno curioso: il "bersaglio mobile". Ogni volta che un'IA raggiunge un traguardo precedentemente considerato unicamente umano, come superare il Test di Turing, l'asticella viene spostata. "Ah, ma la vera intelligenza è ben altro!", si sente dire. È una difesa d'ufficio della specialità umana che rischia di diventare un ostacolo alla comprensione. Oltre la statistica: il segreto è nell'"attenzione" E se guardassimo il problema da un'altra prospettiva? Ridurre un LLM a un "previsore della parola successiva" è come descrivere il cervello umano come un semplice ammasso di neuroni che si attivano e disattivano. È una descrizione corretta a livello microscopico, ma che perde completamente di vista il quadro generale, ovvero il comportamento emergente del sistema nella sua totalità. Il vero cuore pulsante degli LLM moderni, secondo un'analisi approfondita di Agenda Digitale, è l'architettura Transformer e il suo rivoluzionario meccanismo di attenzione. Immaginiamolo così: quando leggiamo una frase, non diamo lo stesso peso a ogni parola. Il nostro cervello crea istantaneamente una rete di connessioni, capendo che un aggettivo si riferisce a un nome specifico, anche se si trova a diverse parole di distanza. Il meccanismo di attenzione fa qualcosa di simile. Grazie a una tecnica chiamata "multi-head attention", il modello non si limita a guardare la parola precedente, ma analizza l'intera frase (il "prompt") da decine di punti di vista contemporaneamente. In questo modo, estrae relazioni sintattiche e semantiche complesse, costruendo un vero e proprio modello interno della conoscenza contenuta nel testo. Non è più solo statistica, ma l'abilità di "leggere tra le righe", che è la radice etimologica stessa della parola "intelligenza" (dal latino intelligere, "capire, leggere dentro"). La corsa ai chip: perché investire miliardi in un pappagallo? Se il dibattito filosofico rimane aperto, il mondo del business sembra aver già scelto da che parte stare. La furiosa corsa alla produzione di hardware sempre più potente per l'IA è un indizio inequivocabile. Aziende come Microsoft stanno accelerando lo sviluppo di chip proprietari per ridurre la dipendenza da Nvidia, mentre OpenAI pianifica la costruzione di un supercomputer da 100 miliardi di dollari, nome in codice "Stargate", per cui sta già stringendo accordi con colossi come Samsung e SK Hynix. Questi investimenti titanici avrebbero senso se si trattasse solo di addestrare pappagalli più bravi a imitare? Difficile crederlo. La realtà è che l'industria sta scommettendo su un futuro in cui l'IA non sarà solo uno strumento, ma una vera e propria infrastruttura cognitiva, capace di risolvere problemi complessi e generare valore in modi che oggi possiamo solo immaginare. La potenza di calcolo diventa il terreno su cui coltivare queste nuove forme di intelligenza. Forse la domanda giusta è un'altra Forse, allora, la domanda "L'IA pensa?" è mal posta. Come ammoniva il filosofo Ludwig Wittgenstein, cercare il "pensiero" come un'entità nascosta dentro la testa (o dentro un chip) è un'idea pericolosa. Il pensiero non è una "cosa", ma una capacità che si manifesta in un comportamento. Gli LLM attuali mancano certamente di aspetti fondamentali dell'esperienza umana: un corpo, una coscienza, desideri e intenzioni proprie. Non "sentono" nulla di ciò che scrivono. Tuttavia, la loro capacità di manipolare il linguaggio e la conoscenza per estrarre strutture, creare connessioni e generare testo coerente e utile rappresenta una forma di intelligenza linguistica innegabile. Non è intelligenza umana, ma è pur sempre intelligenza. Forse il vero cambiamento non è che le macchine stanno imparando a pensare come noi, ma che noi stiamo iniziando a capire che il pensiero può assumere forme molto diverse da quelle a cui siamo abituati.