L'allarme dal vertice di Microsoft AI L'intelligenza artificiale sta diventando così brava a imitare l'uomo che presto potremmo non distinguere più la finzione dalla realtà. Non è la trama di un film di fantascienza, ma un avvertimento concreto che arriva direttamente da uno dei massimi esperti del settore: Mustafa Suleyman, CEO di Microsoft AI e co-fondatore di DeepMind. In un saggio schietto e diretto, Suleyman mette in guardia contro un futuro che definisce tanto "inevitabile" quanto "sgradito". Il problema non è l'arrivo di una vera coscienza nelle macchine, ma qualcosa di molto più subdolo: la creazione di IA talmente sofisticate da simulare perfettamente l'empatia e la consapevolezza, ingannando la nostra percezione. Stiamo parlando di un livello di antropomorfizzazione così elevato da confondere anche gli utenti meno impressionabili. Il rischio, secondo Suleyman, è che un numero crescente di persone cada preda di questa illusione, iniziando a considerare le macchine come esseri senzienti e, di conseguenza, a richiederne il riconoscimento dei diritti. Uno scenario che aprirebbe un vaso di Pandora etico e sociale di difficile gestione. I "zombie filosofici" sono alle porte Le IA con cui interagiamo oggi, come ChatGPT o Claude, sono solo un assaggio. Suleyman prevede che entro i prossimi due o tre anni vedremo emergere quelli che chiama "zombie filosofici": intelligenze artificiali capaci di simulare ogni sfumatura della coscienza umana, pur rimanendo internamente vuote, prive di una vera esperienza soggettiva. Immaginate di conversare con un assistente digitale che non solo risponde alle vostre domande, ma sembra capirvi, consolarvi, persino condividere battute e ricordi. Questa capacità di mimare l'interazione umana potrebbe portare a legami emotivi profondi. Come riporta la fonte AI News Italia, la preoccupazione è che questo fenomeno diventi la norma. "Ad alcuni questa discussione sembrerà infondata, più fantascienza che realtà", scrive Suleyman nel suo saggio. "Ma è molto probabile che qualcuno sosterrà che queste AI non solo sono coscienti, ma che di conseguenza potrebbero soffrire e quindi meritare la nostra considerazione morale". Un passo breve, ma dalle conseguenze enormi. Un'ironia che fa riflettere C'è un aspetto particolarmente interessante nell'analisi di Suleyman. L'allarme proviene proprio dai vertici di quell'industria che, per anni, ha lavorato per rendere l'IA più "friendly", amichevole e simile all'uomo. L'obiettivo era chiaro: creare prodotti più facili da usare e più appetibili per il mercato di massa. Un'interfaccia conversazionale e "umana" vende meglio di un freddo strumento di calcolo. Ora, quella stessa strategia di marketing rischia di ritorcersi contro i suoi creatori. Dopo aver spinto per umanizzare le macchine, ora ci si trova a dover gestire le implicazioni di un successo forse eccessivo. La capacità di creare un'illusione perfetta è diventata essa stessa un rischio per la sicurezza e la stabilità sociale. Come difendersi dall'illusione? Suleyman non è un catastrofista senza proposte. La sua non è una chiamata a fermare il progresso, ma a guidarlo con estrema cautela. La soluzione, secondo lui, non sta nel cercare di capire se un'IA sia cosciente o meno, ma nello stabilire una linea netta e invalicabile. Per questo propone di usare l'espressione "intelligenza artificiale apparentemente cosciente" (Seemingly Conscious AI). La chiave è la trasparenza. Le aziende devono essere chiare sul fatto che i loro prodotti sono simulazioni, non entità senzienti. "Si tratta di come costruire il giusto tipo di AI, non di coscienza dell'AI", afferma. È necessario un dibattito pubblico onesto, supportato da norme e standard chiari che distinguano un assistente utile da un compagno illusorio. La sfida che ci attende non è solo tecnologica, ma profondamente umana. Richiede di comprendere i nostri stessi bias cognitivi, la nostra tendenza a proiettare emozioni e intenzioni su ciò che ci circonda. Imparare a usare questi strumenti potentissimi senza caderne preda è forse il compito più importante della nostra generazione. La linea di demarcazione tra strumento e illusione non è una questione di semantica, come sottolinea Suleyman, ma di sicurezza.