L'AI come arma a doppio taglio: la scoperta di Microsoft L'intelligenza artificiale entra in un territorio inesplorato e potenzialmente pericoloso: la biosicurezza. Un team di Microsoft ha annunciato di aver usato un'AI per scoprire una vulnerabilità "zero-day" nei sistemi di screening genetico. Ma cosa significa? Immagina questi sistemi come dei guardiani digitali che impediscono l'acquisto di sequenze di DNA utilizzabili per creare tossine letali o agenti patogeni. Sono la nostra prima linea di difesa contro il bioterrorismo. Quello che i ricercatori di Microsoft hanno dimostrato è allarmante. La loro intelligenza artificiale è riuscita a trovare un metodo, finora sconosciuto, per aggirare queste protezioni. È l'equivalente biologico di una falla di sicurezza informatica "zero-day": una vulnerabilità che gli hacker scoprono prima di chi dovrebbe difendere il sistema. La notizia, riportata dal MIT Technology Review, non è solo un esercizio accademico, ma un campanello d'allarme per l'intera comunità scientifica e della sicurezza globale. Il punto cruciale è il paradosso dell'AI. La stessa tecnologia usata per identificare queste falle potrebbe, in mani sbagliate, essere usata per crearne di nuove e più sofisticate. Non stiamo parlando di un futuro distopico alla "Terminator", ma di rischi concreti e attuali. La capacità di un'AI di "pensare" in modo non convenzionale le permette di scovare percorsi che a un essere umano non verrebbero in mente, sia nel bene che nel male. Da Redmond a Cupertino: il potere delle Big Tech Se la vicenda Microsoft ci parla di rischi futuri, un'altra storia proveniente dalla Silicon Valley ci riporta bruscamente al presente e al potere che le Big Tech esercitano sulle nostre vite. Apple ha recentemente rimosso dal suo App Store un'applicazione chiamata ICEBlock. La sua funzione era semplice e controversa: permetteva agli utenti di segnalare e visualizzare su una mappa gli avvistamenti di agenti dell'Immigration and Customs Enforcement (ICE), l'agenzia federale statunitense per l'immigrazione. La decisione non è stata autonoma. Apple ha agito in seguito a una richiesta esplicita del Procuratore Generale degli Stati Uniti. La giustificazione ufficiale, secondo quanto riportato da diverse testate, è legata a presunti "rischi per la sicurezza" che l'app avrebbe comportato. Una motivazione che suona familiare, già usata nel 2019 per la rimozione di un'app che permetteva ai manifestanti di Hong Kong di monitorare gli spostamenti della polizia. La reazione dello sviluppatore, Joshua Aaron, è stata durissima. Ha accusato Apple di "capitolare a un regime autoritario", sottolineando come la sua app fosse uno strumento di trasparenza e tutela per le comunità di immigrati. Questo episodio solleva una domanda fondamentale: chi decide quali strumenti possiamo usare e quali informazioni possiamo condividere? La risposta, sempre più spesso, sembra essere una manciata di aziende con un potere di controllo quasi assoluto sui nostri dispositivi. Due storie, un unico filo conduttore Queste due vicende, apparentemente distanti, ci pongono di fronte a una verità scomoda: la tecnologia non è neutra. Le scoperte nei laboratori di intelligenza artificiale e le decisioni prese nelle stanze del board di Cupertino hanno ripercussioni reali e immediate sulla nostra sicurezza e sulle nostre libertà. Da un lato, abbiamo un'innovazione che corre più veloce della nostra capacità di regolamentarla, aprendo scenari di rischio inimmaginabili fino a pochi anni fa. Dall'altro, piattaforme che si ergono a giudici supremi dell'informazione, mediando il nostro accesso alla realtà. Mentre i fondi di venture capital continuano a riversare miliardi nel settore dell'AI, forse la vera domanda non è quanto velocemente possiamo sviluppare queste tecnologie, ma se stiamo costruendo anche le garanzie etiche e normative per gestirle. La vera sfida non è solo spingere i confini dell'innovazione, ma imparare a governarla prima che sia lei a governare noi. La linea tra strumento di progresso e arma di controllo si fa ogni giorno più sottile.