Finalmente una risposta, o quasi Nella corsa sfrenata all'intelligenza artificiale, una domanda è sempre rimasta sospesa nell'aria, pesante come un'incognita ambientale: quanta energia consuma davvero? Per anni, le Big Tech hanno custodito gelosamente questo dato, lasciando analisti e ricercatori a fare stime approssimative. Ora, Google ha deciso di rompere il silenzio, pubblicando per la prima volta i numeri sul consumo energetico dei suoi modelli di punta. È un momento che, in un certo senso, farà storia. Per la prima volta, abbiamo un dato ufficiale da uno dei giganti del settore. Secondo Google, una singola richiesta a Gemini, il suo modello multimodale, per elaborare un prompt di testo consuma in media 0,002 kWh. Per dare un'idea concreta, equivale all'energia necessaria per tenere accesa una TV per circa nove secondi. Un dato apparentemente irrisorio, che sembra quasi voler rassicurare tutti. Ma è davvero così semplice? La risposta, purtroppo, è no. E a dirlo non sono solo gli scettici, ma anche voci autorevoli come quelle del Massachusetts Institute of Technology (MIT). La critica del MIT: trasparenza a metà L'iniziativa di Google è senza dubbio un passo avanti verso la trasparenza. Tuttavia, come sottolineato da un'analisi pubblicata su AI4Business Italia, i dati forniti sono tutt'altro che completi. Il MIT ha messo in guardia sul fatto che questi numeri rappresentano solo una piccola frazione del quadro generale, una verità parziale che rischia di essere fuorviante. Cosa manca, esattamente? Innanzitutto, il costo energetico dell'addestramento. I dati di Google si riferiscono solo all'inferenza, ovvero all'energia usata per rispondere a una singola richiesta. Ma l'addestramento di questi colossali modelli linguistici richiede una potenza di calcolo mostruosa e mesi di lavoro, con un consumo energetico che si stima essere centinaia, se non migliaia, di volte superiore a quello di una singola query. Inoltre, i dati si limitano ai prompt testuali. Non viene fatta menzione del consumo per la generazione di immagini, video o codice, operazioni notevolmente più complesse ed energivore. Infine, manca il dato più importante: il volume complessivo. Sapere quanto costa una goccia è utile, ma senza sapere quante gocce formano l'oceano, il calcolo totale resta un mistero. Quante miliardi di query gestisce Google ogni giorno? Non solo energia: il costo nascosto dell'acqua Il dibattito sull'impatto ambientale dell'AI non si ferma ai kilowattora. Un'altra risorsa fondamentale, e spesso trascurata, è l'acqua. I data center che ospitano e addestrano le intelligenze artificiali sono macchine che producono un'enorme quantità di calore e necessitano di imponenti sistemi di raffreddamento, che a loro volta consumano milioni di litri d'acqua. Stime precedenti hanno suggerito che l'addestramento di un modello come GPT-3 potrebbe aver richiesto circa 700.000 litri d'acqua. Per GPT-4, le cifre sono probabilmente molto più alte. Anche questo è un costo ambientale che, al momento, non compare nei report sulla sostenibilità delle grandi aziende tecnologiche. La mossa di Google, pur lodevole, non fa luce neanche su questo aspetto cruciale. Una porta aperta sul futuro Quindi, l'annuncio di Google è solo una mossa di facciata? Non necessariamente. Pur con tutti i suoi limiti, ha il merito di aver stabilito un precedente. Ora la palla passa agli altri colossi del settore, come OpenAI, Microsoft e Meta. Saranno disposti a seguire l'esempio e, magari, a fornire dati ancora più dettagliati? La pressione pubblica e degli investitori sta crescendo. La sostenibilità non è più un optional, ma una componente essenziale della valutazione di un'azienda. La trasparenza di Google, seppur parziale, potrebbe innescare una reazione a catena, spingendo verso la definizione di standard di reporting condivisi per l'intero settore. Solo allora potremo iniziare a capire veramente quale sia il prezzo, in termini di risorse planetarie, di questa rivoluzione tecnologica. Per ora, l'enigma globale sulla sostenibilità dell'AI resta in gran parte irrisolto.