L'Intelligenza Artificiale come Arma a Doppio Taglio L'intelligenza artificiale può scoprire vulnerabilità "zero-day" nei sistemi di biosicurezza, creando potenzialmente nuove minacce biologiche. Non è la trama di un film di fantascienza, ma la conclusione di una ricerca condotta da un team di Microsoft. Questa rivelazione solleva interrogativi profondi sul controllo e la responsabilità nell'era dell'IA, mentre un'altra vicenda, apparentemente slegata, mostra il potere delle Big Tech di fronte alle pressioni governative. Due storie diverse che convergono su un unico, cruciale punto: la gestione del potere tecnologico e le sue enormi implicazioni per la nostra sicurezza e libertà. Microsoft e le Minacce "Zero-Day" Biologiche Immaginate un sistema di sicurezza progettato per impedire a malintenzionati di acquistare online sequenze di DNA per creare tossine o patogeni letali. Ora immaginate un'intelligenza artificiale addestrata a trovare una falla in quel sistema, una vulnerabilità mai vista prima. È esattamente ciò che i ricercatori di Microsoft hanno affermato di aver fatto, come riportato in un recente articolo del MIT Technology Review. Hanno utilizzato l'IA per scoprire una falla "zero-day", un termine preso in prestito dalla cybersicurezza che indica una debolezza sconosciuta a chi dovrebbe difenderla. In pratica, l'IA ha imparato a eludere i controlli che dovrebbero garantirci sicurezza. La scoperta è un campanello d'allarme assordante. Se da un lato l'IA promette di accelerare la scoperta di nuovi farmaci e cure, dall'altro dimostra di poter essere uno strumento per identificare e, potenzialmente, sfruttare le nostre peggiori debolezze. Il team di Microsoft, guidato dal capo scienziato Eric Horvitz, ha agito in modo etico, identificando la falla per poterla correggere. Ma la domanda sorge spontanea: cosa succederebbe se a usare strumenti simili fossero attori con intenzioni meno nobili? La corsa agli armamenti nell'era dell'IA non si combatte solo con i bit, ma anche con i geni. Apple e la Censura: il Caso ICEBlock Mentre Microsoft esplora i pericoli futuri dell'IA, Apple affronta un dilemma molto presente che riguarda potere e responsabilità. L'azienda ha recentemente rimosso dal suo App Store un'applicazione chiamata ICEBlock. La sua funzione era semplice e controversa: permetteva agli utenti di segnalare e mappare in tempo reale gli avvistamenti di agenti dell'Immigration and Customs Enforcement (ICE). La rimozione non è avvenuta per un malfunzionamento tecnico. È stata una risposta diretta a una richiesta del Procuratore Generale degli Stati Uniti, che ha definito l'app un rischio per la sicurezza degli agenti federali. Apple ha obbedito. Questa decisione, però, non è un caso isolato. Ricorda da vicino la rimozione di un'app di mappatura usata dai manifestanti a Hong Kong nel 2019, anche quella giustificata con motivi di sicurezza pubblica. La reazione dello sviluppatore di ICEBlock, Joshua Aaron, è stata durissima: "Capitolare a un regime autoritario non è mai la mossa giusta". Le sue parole evidenziano il cuore del problema. Fino a che punto una società privata come Apple, che controlla uno dei più grandi ecosistemi digitali al mondo, dovrebbe piegarsi alle richieste di un governo, soprattutto quando queste toccano temi sensibili come la libertà di espressione e l'attivismo? Potere e Responsabilità nell'Era Digitale Queste due vicende, apparentemente distanti, dipingono un quadro coerente. Da un lato, abbiamo la capacità dell'IA di creare minacce di una portata che stiamo solo iniziando a comprendere. Dall'altro, vediamo come le piattaforme che dominano la nostra vita digitale esercitino un potere quasi governativo, mediando tra cittadini e Stati. La ricerca di Microsoft è un esempio di responsabilità proattiva: usare la tecnologia per anticipare i suoi stessi pericoli. La scelta di Apple, invece, solleva un dibattito più complesso sulla neutralità delle piattaforme e sulla loro suscettibilità alle pressioni politiche. Entrambe le storie ci costringono a una riflessione non più rimandabile: mentre la tecnologia corre veloce, le nostre strutture etiche e normative riescono a tenere il passo? O stiamo delegando decisioni fondamentali per il nostro futuro a un pugno di aziende e ai loro algoritmi?