AI Agenti: La Nuova Sfida della Sicurezza Aziendale

Il mondo dell'intelligenza artificiale non smette di stupirci, e non parlo solo di ChatGPT. Quella che sembrava un'onda anomala sta diventando un vero e proprio tsunami, specialmente con l'ascesa degli AI agenti.

Il mondo dell'intelligenza artificiale non smette di stupirci, e non parlo solo di ChatGPT. Quella che sembrava un'onda anomala sta diventando un vero e proprio tsunami, specialmente con l'ascesa degli AI agenti. Queste entità autonome, capaci di agire con minima supervisione umana, stanno rivoluzionando il modo di lavorare nelle aziende. Ma con grandi poteri, come si dice, arrivano grandi responsabilità, e nel caso degli AI agenti, una grande sfida per la sicurezza.

Secondo un recente sondaggio di Cloudera, ripreso da CIO, ben il 96% dei dirigenti IT e data prevede di aumentare l'uso di AI agenti quest'anno. Questo dato è impressionante e ci fa capire quanto velocemente le aziende stiano abbracciando questa nuova tecnologia. Ma mentre l'entusiasmo cresce, emergono anche interrogativi cruciali: come proteggere i sistemi aziendali, i dati e le infrastrutture digitali quando questi agenti autonomi si moltiplicano?

Cyata: La Risposta alla Sicurezza degli AI Agenti

Ed è qui che entra in gioco Cyata, una startup israeliana di cybersecurity che è appena uscita dal periodo di stealth. Fondata con la missione specifica di affrontare le sfide di sicurezza poste dagli AI agenti, Cyata ha già raccolto 8.5 milioni di dollari in finanziamenti seed. Tra gli investitori spicca TLV Partners, e tra gli angel investor ci sono nomi di peso come Ron Serber e Yossi Carmil, ex CEO di Cellebrite, un'azienda nota per le sue soluzioni di sicurezza all'avanguardia.

Shahar Tal, co-fondatore e CEO di Cyata, con un passato da vicepresidente dello sviluppo aziendale in Cellebrite, ha sottolineato a VentureBeat AI che stiamo vivendo un vero e proprio "cambio di paradigma", paragonabile al passaggio al cloud. Le aziende, a suo dire, hanno bisogno di "nuove barriere protettive per gestire la velocità e l'autonomia di questi sistemi". E non potrei essere più d'accordo. Pensate a quanto velocemente un AI agente può operare, prendere decisioni e accedere a dati sensibili. I sistemi di sicurezza tradizionali, pensati per identità umane, semplicemente non sono in grado di tenere il passo.

Un Nuovo Pannello di Controllo per le Identità Agentiche

La piattaforma di Cyata introduce una soluzione innovativa per governare quelle che definisce "identità agentiche", ovvero gli attori AI che svolgono compiti autonomamente. Tal spiega che questi agenti "non funzionano come le identità tradizionali: si attivano in millisecondi, si biforcano in sotto-agenti, effettuano chiamate privilegiate e svaniscono prima che i sistemi IAM o PAM possano reagire". È una realtà nuova e complessa, che richiede strumenti specifici.

L'offerta di Cyata si basa su tre capacità integrate:

  • Scoperta automatizzata degli AI agenti in tutti gli ambienti aziendali. Questo è fondamentale, perché non puoi proteggere ciò che non sai di avere.
  • Osservabilità forense in tempo reale, per capire cosa stanno facendo gli agenti in ogni momento.
  • Controllo granulare degli accessi, per garantire che ogni agente abbia solo i permessi strettamente necessari.

In pratica, Cyata funge da "piano di controllo per le identità autentiche dei lavoratori digitali autonomi". Nel momento in cui un agente si autentica, la piattaforma lo riconosce, ne traccia le azioni e applica il principio del privilegio minimo in tempo reale. Questo significa che Cyata scansiona automaticamente gli ambienti cloud e SaaS per identificare tutti gli agenti AI in uso e li associa a un proprietario umano, monitorandone il comportamento per individuare schemi di accesso rischiosi o anomalie.

Verifica AI-to-AI e Implementazione Rapida

Una delle funzionalità più affascinanti di Cyata è la sua capacità di interrogare gli agenti in linguaggio naturale per comprenderne l'intento. Quando un agente tenta di eseguire un'azione, Cyata può chiedergli una spiegazione e valutarla utilizzando sia logiche basate su regole che l'intelligenza artificiale. "Una delle cose belle degli agenti AI è che parlano inglese", ha detto Tal. "Possiamo chiedere loro perché stanno chiamando uno strumento, e forniranno giustificazioni contestuali e valutabili che possiamo analizzare per verificarne la validità".

La piattaforma utilizza modelli AI per valutare queste giustificazioni in tempo reale, aggiungendo un ulteriore livello di interpretabilità e punteggio di rischio. È, in sostanza, "AI che valuta AI", un concetto che apre scenari interessanti per la sicurezza futura. E per quanto riguarda gli agenti malevoli, magari creati da hacker? Cyata è pronta anche a questo, verificando la provenienza dell'agente e il suo comportamento storico per valutarne il rischio.

Cyata si distingue anche per la rapidità di implementazione. L'integrazione con piattaforme comuni come Microsoft Copilot, Salesforce AgentForce e altri provider di identità è già supportata. Tal afferma che nel giro di 48 ore è possibile scansionare gli ambienti cloud e gli strumenti per identificare le identità agentiche e i relativi rischi. Una volta scoperti, ogni agente AI viene collegato a un referente umano per la responsabilizzazione, colmando il divario tra i sistemi di identità legacy e la forza lavoro AI emergente.

Oltre gli Sviluppatori: Un Fenomeno Diffuso

L'uso crescente degli AI agenti non è limitato ai team tecnici. Sebbene gli sviluppatori siano stati tra i primi ad adottarli, Cyata ha rapidamente notato che l'adozione è molto più ampia. "Inizialmente, pensavamo che gli sviluppatori sarebbero stati il pubblico primario. Ma abbiamo visto che anche i non-sviluppatori stanno implementando agenti rapidamente – vendite, finanza, supporto – quindi la governance centralizzata è diventata essenziale", ha osservato Tal.

Spesso, le organizzazioni scoprono modelli di utilizzo inaspettati una volta che Cyata è stata implementata. In diversi casi, strumenti come Cursor o Copilot sono stati trovati ad agire con permessi elevati, impersonando utenti o accedendo a dati sensibili senza supervisione. "Abbiamo visto casi in cui le aziende pensano di non aver implementato l'AI, ma improvvisamente ci sono Cursor o Copilot in modalità di impersonificazione completa, che agiscono per conto di qualcuno. Sta già accadendo", ha ammonito Tal.

Considerazioni sul Futuro della Sicurezza AI

La piattaforma di Cyata opera in diverse modalità, dal monitoraggio passivo all'applicazione attiva, permettendo ai team di sicurezza di adottarla senza interrompere i flussi di lavoro. Il sistema può segnalare attività rischiose, suggerire mitigazioni o richiedere approvazioni umane per azioni ad alto privilegio. Il prezzo si basa su un modello SaaS, calcolato sul numero di identità agentiche gestite.

L'azienda vede il suo ruolo non solo nel colmare le lacune attuali, ma nel preparare le imprese a un cambiamento più ampio nel modo in cui viene svolto il lavoro. Con un team di veterani della cybersecurity provenienti da Unit 8200, Check Point e Cellebrite, Cyata è ben posizionata per guidare in questa categoria emergente. L'azienda presenterà nuove ricerche alla prossima conferenza Black Hat e sta costruendo un programma di partnership per approfondire le integrazioni con i fornitori di identità e le piattaforme aziendali.

Mentre gli AI agenti diventano sempre più prevalenti, Cyata scommette che le aziende avranno bisogno di strumenti migliori per capire chi – o cosa – sta agendo per loro conto. E non potrei essere più d'accordo. La sicurezza informatica è sempre stata una corsa agli armamenti, e l'era degli AI agenti non fa eccezione. È fondamentale che le aziende si dotino degli strumenti necessari per navigare in questo nuovo panorama, garantendo che l'innovazione non comprometta la sicurezza e l'integrità dei loro sistemi. Il futuro del lavoro è già qui, e con esso, nuove sfide e nuove soluzioni.