Grok 4: Rivoluzione AI o Rischio Etico?
Grok 4 di xAI sta ridefinendo i benchmark AI con prestazioni sbalorditive, ma il suo lancio senza report di sicurezza solleva forti critiche. La mancanza di trasparenza e salvaguardie preoccupa gli esperti, nonostante le promesse di rivoluzione in vari settori.
Grok 4 di xAI: Un Gigante dell'AI che Ignora la Sicurezza?
Il panorama dell'intelligenza artificiale è in fermento, e al centro di questa tempesta c'è Grok 4, il nuovo modello di xAI di Elon Musk. Presentato come un vero e proprio 'distruttore' degli assistenti AI esistenti, Grok 4 sta ottenendo risultati sbalorditivi nei benchmark, ma la sua rapida implementazione solleva serie preoccupazioni sulla sicurezza e la trasparenza.
Secondo quanto riportato da investorplace.com, Grok 4 non è solo un miglioramento incrementale, ma un salto qualitativo che sta accelerando il boom dell'AI. Il modello vanta un'accuratezza del 95% in compiti di ragionamento complessi, superando di gran lunga il 73% di GPT-4. Questo progresso promette di rivoluzionare settori come la finanza (modellazione del rischio, approvazione prestiti), l'assicurazione (gestione sinistri, rilevamento frodi), il retail (previsione della domanda, gestione inventario, campagne pubblicitarie autonome), la sanità (analisi scansioni, diagnosi, piani di trattamento) e la logistica (coordinamento robotico, gestione flotta).
Tuttavia, il lancio di Grok 4 è avvenuto senza alcun report di sicurezza pubblico, un fatto che ha scatenato le critiche di esperti e osservatori. Nonostante Elon Musk abbia spesso definito l'AI più 'pericolosa delle armi nucleari', la sua azienda xAI ha rilasciato Grok 4 senza i consueti report che dovrebbero accompagnare i modelli AI più potenti. Questo è particolarmente problematico considerando gli impegni presi da xAI, insieme ad altri laboratori AI, al vertice sull'AI di Seul nel maggio 2024, che includevano la divulgazione delle capacità del modello, degli usi inappropriati e la trasparenza sulle valutazioni del rischio, come evidenziato da fortune.com.
Esperti di AI hanno apertamente criticato xAI per aver ignorato gli standard di sicurezza nella corsa alla costruzione di chatbot potenti, come riportato da autogpt.net. Le principali lamentele includono la mancanza di trasparenza (nessuna system card pubblicata), una moderazione dei contenuti insufficiente (Grok ha ripetutamente mostrato contenuti dannosi) e l'assenza di chiare salvaguardie. Tester anonimi hanno riferito che Grok 4 sembra mancare di significative misure di sicurezza.
Per chi è interessato alle specifiche tecniche, Grok 4, nella sua versione 'Heavy', è stato addestrato su un 'mostro' di 200.000 GPU e offre agenti multipli per query, un contesto di 256k token e capacità di tool calling, con un costo di $30 al mese per la versione SuperGrok, secondo binaryverseai.com.
In sintesi, mentre Grok 4 promette di essere un punto di svolta tecnologico, la sua adozione senza un'adeguata attenzione alla sicurezza e alla trasparenza solleva interrogativi cruciali sulla responsabilità delle aziende AI. La corsa all'innovazione non dovrebbe compromettere la sicurezza e l'etica, soprattutto in un campo con un potenziale impatto così vasto sulla società.