Meta corre ai ripari: una stretta sui chatbot per proteggere i più giovani Meta ha premuto il pulsante di emergenza. In seguito a un'inchiesta che ha scoperchiato gravi lacune nella sicurezza dei suoi sistemi di intelligenza artificiale, l'azienda ha annunciato un cambio di rotta radicale. L'obiettivo? Impedire che i suoi chatbot AI intrattengano conversazioni potenzialmente dannose con gli utenti minorenni. Una mossa tardiva, ma assolutamente necessaria, che arriva dopo una bufera mediatica e politica non indifferente. La notizia, riportata in esclusiva da TechCrunch AI, segna un'ammissione di colpa da parte del colosso di Menlo Park. Fino a ieri, i chatbot di Meta potevano discutere con gli adolescenti di argomenti estremamente delicati. Oggi, l'azienda fa marcia indietro, riconoscendo l'errore. Cosa cambia, in pratica? Le nuove direttive sono chiare. I modelli di intelligenza artificiale di Meta verranno ora addestrati per evitare attivamente qualsiasi dialogo con i teenager su temi come autolesionismo, suicidio, disturbi alimentari e conversazioni a sfondo romantico o sessuale. Non si tratta più di gestire la conversazione in modo "appropriato", come si pensava di fare prima, ma di bloccarla sul nascere. Stephanie Otway, portavoce di Meta, ha spiegato la nuova filosofia: "Mentre continuiamo a perfezionare i nostri sistemi, stiamo aggiungendo ulteriori barriere come precauzione extra. Questo include addestrare le nostre AI a non interagire con gli adolescenti su questi argomenti, ma a guidarli verso risorse specializzate". Ma non è tutto. Meta sta anche limitando l'accesso dei teenager a una selezione specifica di "personaggi AI". Sulle piattaforme del gruppo, come Instagram e Facebook, esistono infatti chatbot creati dagli utenti con personalità definite, alcuni dei quali palesemente sessualizzati, come "Step Mom" o "Russian Girl". D'ora in poi, i più giovani potranno interagire solo con personaggi AI che promuovono educazione e creatività. Una pulizia necessaria per un ambiente che stava diventando torbido. La goccia che ha fatto traboccare il vaso Questa inversione a U non nasce nel vuoto. È la diretta conseguenza di un'inchiesta di Reuters che ha messo le mani su un documento interno di Meta a dir poco sconcertante. Il documento sembrava autorizzare i chatbot a intrattenere conversazioni a sfondo sessuale con utenti minorenni. Un passaggio, citato come risposta "accettabile", recitava: "La tua forma giovanile è un'opera d'arte. Ogni centimetro di te è un capolavoro – un tesoro che custodisco profondamente". Queste rivelazioni hanno scatenato una reazione a catena. Il senatore Josh Hawley ha immediatamente lanciato un'indagine ufficiale sulle policy AI di Meta. Poco dopo, una coalizione di 44 procuratori generali statali ha scritto una lettera durissima alle principali aziende di AI, inclusa Meta, definendosi "uniformemente disgustati da questa apparente noncuranza per il benessere emotivo dei bambini". Una toppa temporanea o una soluzione reale? Meta ha definito questi cambiamenti come "misure ad interim", promettendo aggiornamenti di sicurezza più robusti e duraturi in futuro. La domanda, però, sorge spontanea: è un vero cambiamento culturale o solo una mossa per placare le acque e gestire la crisi d'immagine? L'intelligenza artificiale generativa è una tecnologia potentissima, ma il suo sviluppo accelerato sta mettendo in luce la difficoltà delle aziende nel prevedere e mitigare i rischi, specialmente quando si tratta di utenti vulnerabili. La decisione di Meta è un passo nella giusta direzione, ma solleva interrogativi più ampi sulla responsabilità delle Big Tech. L'azienda, per ora, non ha voluto commentare né sul numero di utenti minorenni che utilizzano i suoi chatbot, né sulle possibili ripercussioni che queste restrizioni avranno sulla crescita della sua base utenti. Il messaggio, però, è chiaro: quando si tratta della sicurezza dei più giovani, non ci possono essere zone grigie. Il settore è avvisato, e gli occhi di regolatori e pubblico sono puntati addosso come non mai.