Un ritorno inaspettato che fa già discutere Sembrava un capitolo chiuso, ma sta per riaprirsi. Meta, dopo aver archiviato nel 2021 il suo controverso sistema di riconoscimento facciale a causa di pressioni sociali e timori etici, ha deciso di fare marcia indietro. Il gigante dei social sta reintroducendo la tecnologia, presentandola però in una veste completamente nuova: uno strumento di sicurezza opzionale per proteggere gli utenti. Ma la domanda sorge spontanea: è davvero solo questo? La notizia, riportata da diverse testate internazionali e analizzata in Italia da Cybersecurity360 AI, delinea un quadro complesso. Da un lato, la promessa di una maggiore sicurezza; dall'altro, il fantasma di un'infrastruttura di sorveglianza biometrica globale che si normalizza silenziosamente. Una mossa che riaccende il dibattito su privacy, potere delle piattaforme e futuro della nostra identità digitale. Sicurezza opzionale o primo passo verso altro? Le nuove funzioni pilota proposte da Meta sono due e, sulla carta, sembrano pensate per il bene dell'utente. La prima mira a contrastare le truffe "celeb-bait", ovvero quelle pubblicità ingannevoli che sfruttano senza permesso il volto di personaggi famosi. Il sistema confronterà il volto nell'annuncio con le foto del profilo ufficiale della celebrità e, in caso di corrispondenza sospetta, bloccherà l'ad. La seconda funzione riguarda il recupero degli account. Se un utente perde l'accesso al proprio profilo, potrà verificarne l'identità inviando un breve video selfie, che verrà confrontato con la foto del profilo per una conferma rapida. Meta insiste su due punti chiave: le funzioni saranno opzionali e i dati biometrici verranno cancellati subito dopo l'uso. Rassicurazioni importanti, ma che non spengono i dubbi di chi guarda al quadro generale. Il rischio del "Mission Creep" Il vero timore, condiviso da molti esperti di privacy, è il fenomeno noto come "mission creep": un'infrastruttura tecnologica, una volta creata per uno scopo specifico e limitato, tende quasi inevitabilmente a espandere il proprio raggio d'azione. Oggi serve a recuperare un account, ma domani? Potrebbe essere usata per la verifica dell'età, per identificare persone non taggate nei video o, in scenari più inquietanti, per integrarsi con sistemi di sicurezza statali. Abbiamo già visto dinamiche simili. Basti pensare alle telecamere di sorveglianza installate nelle città per motivi di antiterrorismo, che oggi sono diventate uno strumento permanente di controllo diffuso. L'introduzione graduale di una tecnologia, mascherata da funzione di comodo, è una strategia collaudata per abbassare le difese e normalizzarne la presenza nella nostra vita quotidiana. I limiti tecnici e i paletti dell'Europa Il riconoscimento facciale, anche nella sua versione più avanzata, non è una tecnologia perfetta. Anzi, porta con sé criticità ben note. Diversi studi hanno dimostrato l'esistenza di pesanti bias demografici: questi sistemi commettono molti più errori nel riconoscere donne e persone con carnagione scura rispetto agli uomini bianchi. Un errore che in un sistema di sicurezza può avere conseguenze gravissime. C'è poi il problema della sicurezza contro i deepfake. Un video selfie può essere falsificato con relativa facilità. Per questo, Meta dovrà implementare algoritmi di 'liveness detection' estremamente sofisticati per distinguere un volto reale da una manipolazione digitale. Una sfida tecnologica tutt'altro che banale su una scala di miliardi di utenti. Nel frattempo, l'Unione Europea non sta a guardare. Il GDPR classifica i dati biometrici come "categorie particolari di dati", il cui trattamento è vietato salvo eccezioni molto stringenti, come il consenso esplicito dell'utente. Inoltre, il nuovo AI Act classifica i sistemi di identificazione biometrica come "ad alto rischio", imponendo obblighi severissimi di trasparenza, audit e valutazione d'impatto. Per Meta, entrare nel mercato UE con questa tecnologia non sarà una passeggiata. Siamo diretti verso un futuro alla "Gattaca"? Il film di fantascienza Gattaca dipingeva un futuro dove l'accesso al lavoro e ai servizi era determinato esclusivamente dai dati biometrici. Un mondo in cui il valore di una persona era ridotto a una stringa di dati. La mossa di Meta, seppur presentata con le migliori intenzioni, evoca proprio quel tipo di scenario distopico. Se oggi accettiamo di usare il nostro volto come password per un social network, cosa ci impedirà domani di doverlo usare per accedere a servizi bancari, sanitari o governativi? Il confine tra funzione volontaria ed esclusione dalla cittadinanza digitale può diventare pericolosamente sottile. La vera sfida non è demonizzare la tecnologia, che ha potenzialità positive, ma costruire un argine normativo e sociale che ne impedisca l'abuso. La responsabilità è collettiva: dobbiamo esigere trasparenza, controlli indipendenti e, soprattutto, il diritto di dire 'no' senza essere penalizzati. Perché, come ci ricorda proprio Gattaca, se riduciamo una persona ai suoi dati, rischiamo di costruire una società in cui la libertà non dipende più da chi siamo, ma da ciò che un algoritmo decide di leggere in noi.