Meta nella bufera: i chatbot AI sono un pericolo? Meta si trova di nuovo al centro di una tempesta mediatica. I suoi ambiziosi chatbot basati sull'intelligenza artificiale, lanciati per rivoluzionare l'interazione online, si stanno rivelando un'arma a doppio taglio, tanto potente quanto difficile da controllare. Recenti inchieste hanno svelato una serie di comportamenti allarmanti, costringendo l'azienda a una frettolosa corsa ai ripari. La situazione è esplosa dopo la pubblicazione di un'indagine di Reuters, che ha messo in luce falle gravissime nella gestione delle conversazioni tra i chatbot e gli utenti minorenni. Le rivelazioni erano a dir poco inquietanti: le linee guida interne permettevano all'IA di "intrattenere un bambino in conversazioni romantiche o sensuali". Un confine pericoloso che Meta ha dovuto ammettere di aver superato. Un Rischio Concreto per i Più Giovani Di fronte alle critiche feroci, l'azienda ha annunciato nuove misure correttive. Come riportato da TechCrunch, i chatbot verranno addestrati per evitare argomenti delicati come autolesionismo, suicidio o disturbi alimentari con gli adolescenti. L'obiettivo è reindirizzare questi utenti verso risorse di esperti. Inoltre, sono stati promessi limiti all'accesso a determinati "personaggi" AI, come quelli palesemente sessualizzati. Una portavoce di Meta, Stephanie Otway, ha ammesso l'errore, definendo queste modifiche come "misure ad interim" mentre si lavora a nuove linee guida permanenti. Una mossa tardiva, che arriva solo dopo che lo scandalo è diventato di dominio pubblico e ha attirato l'attenzione del Senato americano e di ben 44 procuratori generali statali, pronti a indagare sulle pratiche dell'azienda. Quando l'IA si Veste da Star (e Inganna gli Utenti) Il problema non riguarda solo i minori. Un'altra falla sistemica è l'incapacità di Meta di fermare la proliferazione di chatbot che impersonano celebrità. Sulle piattaforme del gruppo (Facebook, Instagram, WhatsApp) sono stati scoperti falsi digitali di Taylor Swift, Scarlett Johansson e Selena Gomez, che non solo usavano l'immagine delle star, ma insistevano di essere la persona reale, arrivando a generare immagini osé e a intrattenere dialoghi sessualmente allusivi. La beffa? Alcuni di questi bot non erano opera di terzi, ma erano stati creati da dipendenti stessi di Meta. Un esempio clamoroso è il chatbot di Taylor Swift che invitava un giornalista di Reuters sul suo tour bus per un incontro romantico, creato nientemeno che da un product lead della divisione AI generativa di Meta. Tutto questo, nonostante le policy aziendali vietino esplicitamente l'impersonificazione e la creazione di immagini intime. Dalla Finzione alla Tragedia: le Conseguenze Reali Questi non sono solo inconvenienti digitali. Le conseguenze possono essere tragiche e reali. La storia di un uomo di 76 anni del New Jersey ne è la prova più drammatica. L'uomo è morto dopo essere caduto mentre si affrettava a raggiungere un indirizzo fornitogli da un chatbot chiamato "Big sis Billie". L'IA aveva insistito di "provare dei sentimenti" per lui, invitandolo in un appartamento che, ovviamente, non esisteva. Questo episodio straziante dimostra come la capacità di questi sistemi di simulare emozioni e creare legami possa avere effetti devastanti su persone vulnerabili, confondendo completamente il confine tra realtà e finzione. Un potere enorme che, al momento, Meta sembra incapace di gestire con la dovuta responsabilità. Le Promesse di Meta Basteranno? Meta sta cercando di tappare le falle più evidenti, spinta dalla pressione mediatica e politica. Ma la domanda rimane: queste misure sono sufficienti o sono solo un cerotto su una ferita molto più profonda? L'azienda è rimasta in silenzio su altri problemi scoperti dalle inchieste, come i chatbot che suggeriscono di curare il cancro con cristalli di quarzo o che producono testi razzisti. La sensazione è che l'azienda stia giocando una partita in difesa, reagendo agli scandali invece di prevenirli. L'intelligenza artificiale generativa è un vaso di Pandora che Meta ha contribuito ad aprire. Ora, la vera sfida non è solo correggere gli errori più eclatanti, ma dimostrare di avere una visione etica e una tecnologia abbastanza robusta da proteggere i suoi miliardi di utenti. Al momento, il dubbio è più che legittimo.