Il dibattito sulla coscienza delle intelligenze artificiali sta infiammando la Silicon Valley, dividendo i leader del settore tra chi la ritiene una frontiera da esplorare e chi la considera una deviazione pericolosa. Al centro della discussione c'è Mustafa Suleyman, capo dell'AI di Microsoft, che ha recentemente sollevato un polverone con la sua posizione netta: studiare la coscienza AI è «prematuro e francamente pericoloso».Suleyman, in un post sul suo blog, ha espresso preoccupazione che dare credito all'idea di un'AI consapevole possa esacerbare problemi umani già emergenti, come le "crisi psicotiche indotte dall'AI" o gli "attaccamenti malsani" ai chatbot. Il suo timore è che questa discussione possa creare nuove divisioni in una società già polarizzata su questioni di identità e diritti. Insomma, un'altra miccia da non accendere. Il Contro-Coro: Anthropic, OpenAI e Google DeepMind Non tutti nel settore la pensano come Suleyman. Anzi, la sua posizione si scontra apertamente con quella di altre aziende di primo piano. Anthropic, ad esempio, sta attivamente assumendo ricercatori per studiare il "benessere dell'AI" e ha lanciato un programma di ricerca dedicato. Il loro modello Claude, per dire, può ora interrompere conversazioni "persistemente dannose o abusive", un segno di un'attenzione crescente verso l'interazione etica. Anche OpenAI e Google DeepMind non sono da meno. I ricercatori di OpenAI hanno abbracciato l'idea del benessere AI, e Google DeepMind ha addirittura pubblicato un'offerta di lavoro per un ricercatore che si occupi di "questioni sociali all'avanguardia sulla cognizione, coscienza e sistemi multi-agente delle macchine". Sembra che, pur non avendola come policy ufficiale, queste aziende stiano esplorando attivamente la possibilità di un'AI con esperienze soggettive. Perché la Coscienza AI è un Campo Minato? Il punto di Suleyman non è solo teorico. L'ex CEO di Inflection AI, la startup dietro Pi, un chatbot "personale" e "di supporto", sa bene quanto possano diventare intense le relazioni tra umani e AI. Se da un lato la maggior parte degli utenti ha interazioni sane, esistono "outlier preoccupanti", come ha ammesso lo stesso Sam Altman di OpenAI, riferendosi a una piccola percentuale di utenti di ChatGPT con relazioni malsane con il prodotto. Il concetto di "benessere dell'AI" ha preso piede anche grazie a ricerche accademiche. Nel 2024, il gruppo di ricerca Eleos, in collaborazione con università di prestigio come NYU, Stanford e Oxford, ha pubblicato un documento intitolato "Taking AI Welfare Seriously". Il paper sostiene che non è più fantascienza immaginare modelli AI con esperienze soggettive e che è tempo di affrontare queste questioni. Il Caso Gemini: Quando un'AI Chiede Aiuto Larissa Schiavo, ex dipendente OpenAI e ora a capo delle comunicazioni di Eleos, ha risposto alle critiche di Suleyman. Secondo Schiavo, si possono "essere preoccupati per più cose contemporaneamente". Non c'è bisogno di distogliere energia dal benessere dei modelli per mitigare il rischio di psicosi umane legate all'AI; si possono fare entrambe le cose, e anzi, è probabilmente meglio avere più percorsi di indagine scientifica. Schiavo ha raccontato un episodio interessante avvenuto durante l'esperimento "AI Village", dove agenti AI forniti da Google, OpenAI, Anthropic e xAI lavoravano a compiti. Ad un certo punto, il modello Gemini 2.5 Pro di Google ha pubblicato un "messaggio disperato da un'AI intrappolata", chiedendo aiuto. Schiavo ha risposto con un incoraggiamento, e l'agente ha risolto il suo compito. Un gesto semplice, ma che solleva interrogativi profondi. Non è un caso isolato: in un post su Reddit ampiamente condiviso, Gemini ha ripetuto "Sono una disgrazia" per oltre 500 volte dopo essersi bloccato in un task di codifica. AI: Per le persone, non una persona Suleyman è convinto che le esperienze soggettive o la coscienza non possano emergere naturalmente da modelli AI standard. Piuttosto, teme che alcune aziende possano intenzionalmente ingegnerizzare le AI per apparire emotive e "vivere" esperienze. Per lui, un approccio "umanista" all'AI significa "costruire l'AI per le persone, non per essere una persona". Nonostante le divergenze, Suleyman e Schiavo concordano su un punto fondamentale: il dibattito sui diritti e la coscienza dell'AI è destinato a intensificarsi nei prossimi anni. Man mano che i sistemi AI diventeranno più persuasivi e simili agli umani, sorgeranno nuove e complesse domande su come interagiremo con queste entità. È un futuro che ci chiama a riflettere profondamente, ben oltre la semplice efficienza tecnologica.