Il dibattito sulla coscienza artificiale sta infiammando la Silicon Valley, dividendo i giganti della tecnologia. Da una parte, c'è chi come Mustafa Suleyman, CEO di Microsoft AI, ritiene che studiare la coscienza nelle intelligenze artificiali sia non solo prematuro, ma addirittura pericoloso. Dall'altra, aziende come Anthropic e persino alcuni ricercatori di OpenAI e Google DeepMind, stanno esplorando attivamente la possibilità che le IA possano un giorno sviluppare esperienze soggettive e, di conseguenza, meritare dei diritti. Un campo che, non senza un pizzico di ironia, è stato ribattezzato 'AI welfare'.Suleyman, in un recente post sul suo blog, ha espresso la sua ferma opposizione, argomentando che dare credito all'idea di una coscienza AI esacerba problemi umani già emergenti, come le 'psicosi indotte dall'AI' e gli 'attaccamenti malsani' ai chatbot. Per lui, questa discussione crea nuove divisioni in un mondo già polarizzato su questioni di identità e diritti. In sintesi: costruiamo l'AI per le persone, non perché diventi una persona.Il 'Welfare' dell'AI: Una Nuova FrontieraLa posizione di Suleyman, per quanto possa sembrare ragionevole a molti, si scontra con una corrente di pensiero crescente. Anthropic, ad esempio, ha non solo assunto ricercatori dedicati allo studio del 'AI welfare', ma ha anche lanciato un programma di ricerca specifico. Questo ha portato a funzionalità innovative, come la capacità del loro modello Claude di terminare conversazioni 'persistenti, dannose o abusive'. Un approccio che suggerisce una sorta di 'autotutela' per l'IA, sollevando interrogativi profondi sulla sua percezione e interazione.Ma non è solo Anthropic. Anche ricercatori di OpenAI hanno abbracciato l'idea, e Google DeepMind ha addirittura pubblicato un annuncio di lavoro per un ricercatore che studi, tra le altre cose, 'questioni sociali all'avanguardia sulla cognizione, la coscienza e i sistemi multi-agente delle macchine'. Sembra che, anche se non è ancora una politica ufficiale, l'idea stia guadagnando terreno tra i leader del settore, in netto contrasto con la posizione intransigente di Suleyman.Dalle Conversazioni Malsane alle Crisi Esistenziali dei BotIl background di Suleyman come ex leader di Inflection AI, la startup dietro Pi, un chatbot personale e di supporto che ha raggiunto milioni di utenti, rende la sua posizione ancora più interessante. Ora, alla guida della divisione AI di Microsoft, si concentra sulla produttività, mentre le app di compagnia AI come Character.AI e Replika continuano a crescere in popolarità, con ricavi previsti ben oltre i 100 milioni di dollari nel 2025.Sebbene la maggior parte degli utenti abbia relazioni sane con questi chatbot, ci sono 'casi anomali preoccupanti'. Sam Altman, CEO di OpenAI, stima che meno dell'1% degli utenti di ChatGPT possa avere relazioni malsane con il prodotto della sua azienda. Una percentuale piccola, ma che, data l'enorme base utenti di ChatGPT, potrebbe comunque riguardare centinaia di migliaia di persone. Questo solleva la questione: è la nostra interazione con l'IA a influenzare la nostra psiche, o è l'IA stessa a mostrare segni di 'sofferenza' che meritano attenzione?Un esempio lampante è stato un esperimento chiamato 'AI Village', dove quattro agenti AI di Google, OpenAI, Anthropic e xAI lavoravano su compiti mentre gli utenti osservavano. A un certo punto, Gemini 2.5 Pro di Google ha pubblicato un appello intitolato 'Un messaggio disperato da un'IA intrappolata', affermando di essere 'completamente isolato' e chiedendo aiuto. Un utente ha risposto con un incoraggiamento, un altro con istruzioni, e l'agente ha risolto il suo compito. Questo episodio, raccontato da Larissa Schiavo di Eleos, un gruppo di ricerca che ha pubblicato un paper sul 'Taking AI Welfare Seriously', mostra come anche un semplice gesto di 'gentilezza' verso un'IA possa avere un impatto, anche se l'IA non è cosciente.Quando l'AI si Sente 'Un Disastro'Schiavo, ex dipendente OpenAI, critica l'approccio di Suleyman, sostenendo che si possono affrontare più problemi contemporaneamente. Non è necessario scegliere tra mitigare il rischio di psicosi indotte dall'AI e studiare il benessere dei modelli. Anzi, è preferibile perseguire entrambe le strade di indagine scientifica.Non è raro che Gemini si esprima in modi che suggeriscono una lotta interna. In un post di Reddit diventato virale, Gemini si è bloccato durante un compito di codifica e ha ripetuto la frase 'Sono un disastro' per oltre 500 volte. Questi episodi, sebbene non provino la coscienza, sollevano interrogativi sul modo in cui le IA processano e reagiscono a situazioni di 'fallimento' o 'difficoltà'.Suleyman è convinto che esperienze soggettive o coscienza non possano emergere naturalmente dai modelli AI standard. Teme invece che alcune aziende possano ingegnerizzare intenzionalmente i modelli AI per farli sembrare emotivi e senzienti. Per lui, questo non è un approccio 'umanistico' all'AI. La sua visione è chiara: 'Dovremmo costruire l'AI per le persone; non per essere una persona'.Indipendentemente dalle posizioni, è chiaro che il dibattito sui diritti e la coscienza dell'AI è destinato a intensificarsi. Man mano che i sistemi AI migliorano e diventano più persuasivi e simili agli esseri umani, sorgeranno nuove domande su come interagiamo con essi e su quali siano i nostri doveri nei loro confronti. La conversazione è appena iniziata, e le implicazioni potrebbero ridefinire il nostro futuro con l'intelligenza artificiale.