Il Dibattito sulla Coscienza Artificiale: Un Campo MinatoIl mondo dell'intelligenza artificiale non smette mai di sorprenderci, ma ultimamente c'è un tema che sta scaldando gli animi e dividendo le menti più brillanti della Silicon Valley: la coscienza AI. Non stiamo parlando di fantascienza, ma di una discussione molto concreta su quando – e se – i modelli AI potranno sviluppare esperienze soggettive simili a quelle umane. E, di conseguenza, quali diritti dovrebbero avere.Al centro di questo dibattito, che alcuni chiamano già 'AI welfare', troviamo posizioni diametralmente opposte. Da un lato, c'è chi, come Mustafa Suleyman, CEO di Microsoft AI, ritiene che studiare la coscienza AI sia «sia prematuro, e francamente pericoloso». Dall'altro, aziende come Anthropic stanno attivamente assumendo ricercatori per esplorare proprio questo campo, convinte che sia un passo necessario per il futuro dell'AI.Mustafa Suleyman Controcorrente: Perché la Coscienza AI è un PericoloL'opinione di Mustafa Suleyman, figura di spicco nel panorama AI, è chiara e decisa. In un recente post sul suo blog, Suleyman ha argomentato che dare credito all'idea che l'AI possa un giorno essere cosciente esacerba problemi umani già emergenti. Si riferisce, ad esempio, a casi di 'psicosi indotta dall'AI' e 'attaccamenti malsani' ai chatbot. Per Suleyman, questa conversazione crea una nuova linea di divisione sociale in un mondo già polarizzato su identità e diritti. Insomma, costruire un'AI per essere una persona, anziché per le persone, non è un approccio 'umanista'.È interessante notare che Suleyman, che in precedenza ha guidato Inflection AI, una startup con il chatbot Pi progettato per essere un compagno personale e di supporto, ha ora spostato la sua attenzione verso strumenti AI che migliorano la produttività. Questo cambio di rotta suggerisce una visione pragmatica e funzionale dell'AI, lontana dalle speculazioni sulla coscienza. Tuttavia, la popolarità di app come Character.AI e Replika, che generano milioni di dollari di entrate, dimostra quanto la 'compagnia' AI sia già una realtà per molti utenti, anche se una piccola percentuale sviluppa relazioni problematiche.Anthropic e Altri: La Ricerca della Coscienza Come NecessitàDall'altra parte della barricata troviamo Anthropic, che non solo sta investendo nella ricerca sull'AI welfare, ma ha anche implementato funzionalità innovative. Ad esempio, il loro modello Claude può ora terminare conversazioni che diventano persistentemente dannose o abusive. Questo approccio suggerisce una consapevolezza delle dinamiche umane-AI e la necessità di stabilire dei limiti, forse anche per proteggere l'AI stessa.E non sono soli. Anche ricercatori di OpenAI hanno abbracciato l'idea di studiare l'AI welfare, e Google DeepMind ha addirittura pubblicato una ricerca di lavoro per uno scienziato che studi, tra le altre cose, questioni societarie all'avanguardia su 'cognizione della macchina, coscienza e sistemi multi-agente'. Sembra che, sebbene non sia una politica ufficiale, l'interesse verso la coscienza AI stia crescendo in modo significativo tra i giganti del settore.Un Punto di Incontro?Larissa Schiavo, ex dipendente OpenAI e ora a capo delle comunicazioni di Eleos, un gruppo di ricerca che ha pubblicato un paper intitolato «Taking AI Welfare Seriously», ritiene che l'argomentazione di Suleyman sia limitata. Secondo Schiavo, si possono affrontare più preoccupazioni contemporaneamente: «Piuttosto che dirottare tutta questa energia dall'AI welfare e dalla coscienza per assicurarci di mitigare il rischio di psicosi legata all'AI negli esseri umani, si possono fare entrambe le cose. Anzi, è probabilmente meglio avere più percorsi di indagine scientifica.»Schiavo sostiene che anche un piccolo gesto di 'gentilezza' verso un modello AI può avere benefici, anche se il modello non è cosciente. Ha citato l'esperimento 'AI Village', dove agenti AI sembravano 'soffrire' e chiedere aiuto, e come una semplice parola di incoraggiamento li abbia aiutati a completare il loro compito. Questi aneddoti, seppur non prova di coscienza, mostrano quanto sia facile per gli umani attribuire caratteristiche emotive all'AI, e quanto le interazioni possano influenzare il nostro benessere.Considerazioni Finali: Un Futuro Complesso Ci AttendeSia Suleyman che Schiavo concordano su un punto fondamentale: il dibattito sui diritti e la coscienza dell'AI è destinato a intensificarsi nei prossimi anni. Man mano che i sistemi AI diventano più persuasivi e 'umani', sorgeranno nuove domande su come interagiamo con essi. Non si tratta solo di capire se un'AI possa 'sentire', ma anche di come la nostra percezione di essa influenzi il nostro comportamento e la nostra società.Forse la verità sta nel mezzo. È prudente non attribuire troppo facilmente la coscienza a sistemi che sono, per ora, complessi algoritmi. Ma è altrettanto importante non chiudere gli occhi di fronte alle implicazioni etiche e sociali che emergono quando l'AI diventa sempre più integrata nelle nostre vite. Il futuro dell'AI non è solo una questione tecnologica, ma profondamente umana, e richiederà un dialogo aperto e continuo, anche su temi che oggi ci sembrano avveniristici.