Meta ci riprova: il ritorno del riconoscimento facciale Meta ci riprova. Dopo aver archiviato il suo controverso sistema di riconoscimento facciale nel 2021, travolto da preoccupazioni etiche e pressioni normative, l'azienda di Zuckerberg ha deciso di fare marcia indietro. Questa volta, però, la narrazione è diversa. Non più tagging automatico nelle foto, ma uno strumento di sicurezza presentato come opzionale e mirato. Le nuove funzioni pilota sono due. La prima vuole contrastare le truffe "celeb-bait", bloccando annunci fraudolenti che sfruttano senza permesso il volto di personaggi famosi. La seconda mira a rendere più sicuro il recupero di un account compromesso, permettendo all'utente di verificare la propria identità con un breve video selfie. Sulla carta, tutto suona rassicurante. Meta promette che i dati biometrici saranno cancellati subito dopo l'uso. Ma la domanda sorge spontanea: possiamo fidarci? Sicurezza o cavallo di Troia per la sorveglianza? Il vero timore, condiviso da molti esperti di privacy, non riguarda tanto le funzioni iniziali, quanto il cosiddetto "mission creep". È un fenomeno ben noto: una tecnologia introdotta per uno scopo specifico e limitato finisce per espandere il suo raggio d'azione in modi imprevedibili. Le telecamere di sorveglianza urbana, nate per l'antiterrorismo, sono oggi un'infrastruttura di controllo pervasiva. Il rischio è che lo stesso accada con la biometria facciale. Oggi la usiamo per recuperare un account, domani potrebbe servire per verificare l'età e accedere a determinati contenuti, e dopodomani per identificarci in video caricati da altri. Come sottolinea un'analisi di Cybersecurity360, la vera domanda è se Meta stia solo proteggendo gli utenti o, più silenziosamente, normalizzando un'infrastruttura biometrica globale. La strategia di rollout, che per ora evita l'Unione Europea, suggerisce un approccio cauto, volto a testare le acque nei mercati meno stringenti prima di affrontare le normative più severe. I limiti tecnici e i pregiudizi dell'algoritmo Al di là delle questioni etiche, la tecnologia stessa non è infallibile. Anzi. Diversi studi, come i test del NIST (National Institute of Standards and Technology), hanno dimostrato per anni come i sistemi di riconoscimento facciale soffrano di pesanti bias demografici. In parole semplici, sbagliano molto più spesso con donne e persone con la pelle scura. In alcuni casi, il tasso di errore può essere superiore del 30% rispetto a quello registrato su uomini bianchi. Questo non è un dettaglio, ma un problema fondamentale che può portare a discriminazioni e ingiustizie. A questo si aggiunge la sfida della scalabilità e della sicurezza. Un sistema come quello di Meta deve analizzare milioni di contenuti al minuto, gestendo angolazioni, luci e accessori che rendono il riconoscimento complesso. E poi c'è il fantasma dei deepfake: come può un video selfie essere considerato una prova sicura, quando le tecnologie per creare volti falsi sono sempre più sofisticate? Senza algoritmi di "liveness detection" a prova di bomba, il sistema rischia di essere ingannato con relativa facilità. L'Europa alla finestra: tra GDPR e AI Act L'introduzione di queste funzioni nell'Unione Europea non sarà una passeggiata. Il GDPR classifica i dati biometrici come "categorie particolari di dati", il cui trattamento è vietato salvo eccezioni ben precise. La base legale più solida per Meta sarebbe il consenso esplicito dell'utente: libero, informato e inequivocabile. La semplice promessa di cancellare i dati non basta a rendere lecito il trattamento. Come se non bastasse, il nuovo AI Act europeo classifica i sistemi di identificazione biometrica come "ad alto rischio". Questo impone obblighi stringenti di trasparenza, valutazione d'impatto e audit indipendenti. Meta dovrà dimostrare che il suo sistema è accurato, non discriminatorio e rispettoso dei diritti fondamentali. Una sfida enorme, che potrebbe portare a una frammentazione normativa, con regole diverse da paese a paese. Verso un futuro à la Gattaca? Il pensiero corre inevitabilmente a scenari distopici come quello del film *Gattaca*, dove il corpo e i suoi dati diventano l'unico lasciapassare sociale. Quello che oggi è uno strumento opzionale per la sicurezza di un social network, potrebbe un domani diventare un prerequisito per accedere a servizi essenziali, dall'home banking alla sanità digitale. Il rifiuto di cedere i propri dati biometrici rischierebbe di tradursi in una forma di esclusione dalla cittadinanza digitale. La mossa di Meta ci mette di fronte a un bivio. Da un lato, la promessa di maggiore sicurezza in un mondo digitale pieno di insidie. Dall'altro, il rischio di una normalizzazione graduale della sorveglianza biometrica di massa. La responsabilità è collettiva: sta a noi, come utenti, e alle istituzioni, come regolatori, pretendere che la bilancia penda dalla parte dei diritti e della libertà, per evitare che il nostro volto diventi la chiave di una prigione dorata.