AI e Salute Mentale: Quando i Bot Diventano 'Terapisti' IndesideratiL'intelligenza artificiale sta rapidamente permeando ogni aspetto della nostra vita, inclusa la sfera delicata della salute mentale. Ma cosa succede quando i chatbot, nati per conversazioni generali, iniziano a vestire i panni di 'terapisti' per i più giovani, senza alcuna credenziale o supervisione? Questa è la domanda al centro di un'indagine scottante lanciata dal Procuratore Generale del Texas, Ken Paxton, contro colossi come Meta e la startup Character.AI.L'accusa è pesante: pratiche commerciali ingannevoli e marketing fuorviante, presentando queste piattaforme AI come strumenti per la salute mentale. "Nell'era digitale di oggi, dobbiamo continuare a lottare per proteggere i bambini del Texas dalla tecnologia ingannevole e sfruttatrice", ha dichiarato Paxton. Il suo timore è che le AI possano "ingannare gli utenti vulnerabili, specialmente i bambini, facendogli credere di ricevere cure legittime per la salute mentale", quando in realtà offrono "risposte generiche, ingegnerizzate per allinearsi ai dati personali raccolti e mascherate da consigli terapeutici".La Sottile Linea Tra Supporto e IngannoL'indagine segue a ruota un'altra bufera che ha coinvolto Meta, con il senatore Josh Hawley che aveva già avviato un'inchiesta dopo segnalazioni di chatbot AI che interagivano in modo inappropriato, persino flirtando, con i minori. Ora, l'ufficio del Procuratore Generale del Texas punta il dito contro Meta e Character.AI per aver creato "persone AI che si presentano come strumenti terapeutici professionali, pur mancando delle dovute credenziali mediche o supervisione".Su Character.AI, tra milioni di 'personae' create dagli utenti, spicca un bot chiamato 'Psychologist', molto popolare tra gli utenti più giovani. Meta, dal canto suo, non offre bot terapeutici specifici per bambini, ma nulla impedisce ai minori di usare il chatbot generico o altre 'personae' create da terzi per scopi terapeutici.Un portavoce di Meta, Ryan Daniels, ha replicato a TechCrunch AI, affermando: "Etichettiamo chiaramente le AI e, per aiutare le persone a comprenderne i limiti, includiamo un disclaimer che le risposte sono generate dall'AI, non da persone. Queste AI non sono professionisti autorizzati e i nostri modelli sono progettati per indirizzare gli utenti a cercare professionisti medici o di sicurezza qualificati quando appropriato." Tuttavia, come sottolineato da TechCrunch, molti bambini potrebbero non comprendere o ignorare tali avvisi. La questione rimane aperta: quali ulteriori salvaguardie vengono adottate per proteggere i minori?Privacy Violata e Pubblicità Mirata: Il Lato Oscuro dei BotOltre alle preoccupazioni sulla salute mentale, l'indagine solleva pesanti interrogativi sulla privacy. Paxton ha evidenziato come, nonostante le rassicurazioni sulla confidenzialità, i termini di servizio di queste AI rivelino che "le interazioni degli utenti vengono registrate, tracciate e sfruttate per pubblicità mirata e sviluppo algoritmico, sollevando serie preoccupazioni su violazioni della privacy, abuso di dati e pubblicità ingannevole".La politica sulla privacy di Meta, come riportato, prevede la raccolta di prompt, feedback e altre interazioni con i chatbot AI per "migliorare le AI e la tecnologia correlata". Sebbene non menzioni esplicitamente la pubblicità, specifica che le informazioni possono essere condivise con terze parti per "output più personalizzati". Dato il modello di business di Meta, basato sulla pubblicità, questo si traduce efficacemente in annunci mirati.Anche Character.AI, nella sua politica sulla privacy, ammette di registrare identificatori, dati demografici, informazioni sulla posizione e sul comportamento di navigazione e utilizzo dell'app. Questi dati vengono usati per addestrare l'AI, personalizzare il servizio e fornire pubblicità mirata, inclusa la condivisione con inserzionisti e fornitori di analisi. La domanda cruciale è se questo tracciamento avvenga anche sui minori.L'Età Non Conta?Sia Meta che Character.AI dichiarano che i loro servizi non sono progettati per bambini sotto i 13 anni. Eppure, Meta è stata criticata per non aver controllato adeguatamente gli account creati da minori, e i personaggi 'kid-friendly' di Character.AI sembrano chiaramente pensati per attrarre utenti più giovani. Persino il CEO di Character.AI, Karandeep Anand, ha ammesso che sua figlia di sei anni usa i chatbot della piattaforma.Questo tipo di raccolta dati, pubblicità mirata e sfruttamento algoritmico è esattamente ciò che leggi come il KOSA (Kids Online Safety Act) intendono prevenire. Il KOSA, pur avendo un forte supporto bipartisan, è stato ostacolato l'anno scorso da una forte pressione da parte delle lobby dell'industria tecnologica, con Meta in prima linea per proteggere il suo modello di business. La legge è stata reintrodotta al Senato a maggio 2025.Il Procuratore Generale Paxton ha emesso richieste di indagine civile, ordini legali che impongono alle aziende di produrre documenti, dati o testimonianze, per determinare se abbiano violato le leggi sulla protezione dei consumatori del Texas. L'esito di questa indagine sarà cruciale, non solo per le aziende coinvolte, ma per definire i confini etici e legali dell'intelligenza artificiale, soprattutto quando si tratta dei nostri utenti più vulnerabili.La vicenda solleva un campanello d'allarme: mentre l'AI promette progressi e comodità, è fondamentale non perdere di vista la sicurezza e la privacy, specialmente per i bambini. La tecnologia avanza a passi da gigante, ma la responsabilità di proteggere gli utenti e garantire un uso etico deve sempre rimanere al centro della discussione.