OpenAI e gli Agenti AI del Futuro: Verso l'Intelligenza che Ragiona
Il mondo dell'intelligenza artificiale è in costante fermento, e al centro di questa rivoluzione c'è OpenAI, con la sua ambiziosa missione di creare un'AI capace di 'fare qualsiasi cosa per te'. Non si tratta più solo di chatbot che rispondono a domande, ma di veri e propri agenti AI, in grado di...
Il mondo dell'intelligenza artificiale è in costante fermento, e al centro di questa rivoluzione c'è OpenAI, con la sua ambiziosa missione di creare un'AI capace di 'fare qualsiasi cosa per te'. Non si tratta più solo di chatbot che rispondono a domande, ma di veri e propri agenti AI, in grado di agire e ragionare autonomamente. Un obiettivo che, fino a poco tempo fa, sembrava pura fantascienza.
Ma come ci si sta arrivando? La chiave di volta sembra essere il 'ragionamento' artificiale. Hunter Lightman, ricercatore di OpenAI, ha rivelato a TechCrunch AI il lavoro del team MathGen. Inizialmente, il loro compito era migliorare le capacità matematiche dei modelli di OpenAI, che all'epoca erano piuttosto limitate. Oggi, quel lavoro è considerato fondamentale per lo sviluppo di modelli di ragionamento all'avanguardia, la tecnologia di base dietro gli agenti AI capaci di svolgere compiti complessi su un computer, proprio come farebbe un essere umano.
Dal Calcolo alla Ragione: Il Percorso di OpenAI
Ricordiamo tutti la nascita di ChatGPT, un 'incidente fortunato' che ha rapidamente conquistato il mondo. Eppure, dietro le quinte, OpenAI ha sempre avuto un obiettivo più grande: la creazione di agenti AI. Sam Altman, CEO di OpenAI, lo ha ribadito nel 2023: «Alla fine, chiederai al computer ciò di cui hai bisogno e lui svolgerà tutti questi compiti per te. Questi agenti porteranno vantaggi enormi».
Nonostante i progressi, i modelli attuali di OpenAI non sono perfetti. Tendono ancora a 'allucinare' (generare informazioni errate) e gli agenti faticano con compiti complessi. Tuttavia, i miglioramenti nel ragionamento matematico sono evidenti. Un modello di OpenAI ha addirittura vinto una medaglia d'oro alle Olimpiadi Internazionali di Matematica, competizione per studenti delle scuole superiori. Questo successo fa ben sperare che le capacità di ragionamento si estendano ad altri ambiti, alimentando gli agenti AI multiuso che OpenAI sogna da tempo.
La Rinascita del Reinforcement Learning
La spinta verso i modelli di ragionamento e gli agenti di OpenAI è strettamente legata al Reinforcement Learning (RL), una tecnica di apprendimento automatico che fornisce feedback a un modello AI, indicandogli se le sue scelte in ambienti simulati sono state corrette o meno. Non è una novità: già nel 2016, AlphaGo di Google DeepMind, basato su RL, batté un campione mondiale nel gioco del Go.
Il vero punto di svolta per OpenAI è arrivato nel 2023, con una scoperta inizialmente chiamata 'Q*' e poi 'Strawberry'. Questa innovazione ha combinato i Large Language Models (LLM), il Reinforcement Learning e una tecnica chiamata 'test-time computation'. Quest'ultima concede ai modelli tempo e potenza di calcolo aggiuntivi per pianificare e risolvere i problemi, verificando i passaggi prima di fornire una risposta. Questo ha permesso l'introduzione della 'chain-of-thought' (CoT), migliorando le prestazioni dell'AI in problemi matematici mai visti prima.
«Potevo vedere il modello iniziare a ragionare», ha detto El Kishky, un ricercatore di OpenAI. «Notava gli errori e tornava indietro, si 'frustrava'. Sembrava davvero di leggere i pensieri di una persona». Sebbene queste tecniche non fossero singolarmente nuove, la loro combinazione unica ha portato a Strawberry, e da lì direttamente allo sviluppo di o1, il primo modello di ragionamento AI di OpenAI lanciato nell'autunno del 2024. Le capacità di pianificazione e verifica dei fatti di questi modelli sono state subito identificate come cruciali per alimentare gli agenti AI.
Cosa Significa per un'AI 'Ragionare'?
La domanda sorge spontanea: cosa significa davvero per un'AI 'ragionare'? Per El Kishky, si tratta di insegnare al modello a utilizzare in modo efficiente la potenza di calcolo per ottenere una risposta. «Se la si definisce così, sì, sta ragionando», afferma. Lightman, invece, preferisce concentrarsi sui risultati del modello, piuttosto che sui meccanismi interni o sulla loro somiglianza con il cervello umano. «Se il modello fa cose difficili, allora sta compiendo qualsiasi approssimazione del ragionamento sia necessaria per farlo», spiega. «Possiamo chiamarlo ragionamento, perché assomiglia a queste tracce di ragionamento, ma è tutto un mezzo per cercare di creare strumenti AI davvero potenti e utili a molte persone».
Gli agenti AI attuali funzionano meglio per compiti ben definiti e verificabili, come la programmazione. L'agente Codex di OpenAI, ad esempio, aiuta gli ingegneri software a svolgere semplici attività di codifica. Tuttavia, gli agenti AI di uso generale, come ChatGPT Agent di OpenAI, faticano con compiti complessi e soggettivi, come lo shopping online o la ricerca di un parcheggio a lungo termine, commettendo a volte errori 'sciocchi'.
Il Futuro degli Agenti AI: Compiti Soggettivi e Oltre
La sfida ora è insegnare ai modelli sottostanti a completare compiti più soggettivi. «Come molti problemi nell'apprendimento automatico, è un problema di dati», ha detto Lightman. «Alcune delle ricerche che mi entusiasmano davvero in questo momento stanno cercando di capire come addestrare su compiti meno verificabili. Abbiamo alcune piste su come fare queste cose».
Noam Brown, un altro ricercatore di OpenAI che ha contribuito al modello IMO e a o1, ha rivelato che OpenAI dispone di nuove tecniche di Reinforcement Learning generalizzate che consentono di insegnare ai modelli AI abilità non facilmente verificabili. È così che l'azienda ha costruito il modello che ha ottenuto una medaglia d'oro all'IMO. Questo modello IMO, un sistema AI più recente, genera più agenti che esplorano simultaneamente diverse idee, scegliendo poi la migliore risposta possibile. Questo tipo di modelli sta diventando sempre più popolare, con Google e xAI che hanno recentemente rilasciato modelli all'avanguardia utilizzando questa tecnica.
«Credo che questi modelli diventeranno più capaci in matematica e in altre aree di ragionamento», ha detto Brown. «Il progresso è stato incredibilmente rapido. Non vedo alcun motivo per pensare che rallenterà». Queste tecniche potrebbero portare a prestazioni ancora migliori nel prossimo modello GPT-5 di OpenAI. L'obiettivo è chiaro: dominare il settore, offrendo il miglior modello AI per sviluppatori e consumatori, e rendere i prodotti più semplici da usare. OpenAI vuole sviluppare agenti AI che comprendano intuitivamente ciò che gli utenti desiderano, senza richiedere impostazioni specifiche, e che sappiano quando utilizzare determinati strumenti e per quanto tempo ragionare.
L'immagine che emerge è quella di una versione definitiva di ChatGPT: un agente capace di fare qualsiasi cosa su internet per te, comprendendo esattamente come vuoi che venga fatto. È un prodotto molto diverso da quello che è ChatGPT oggi, ma la ricerca dell'azienda si sta muovendo in questa direzione. Sebbene OpenAI abbia indubbiamente guidato l'industria dell'AI fino a pochi anni fa, ora si trova di fronte a una schiera di avversari formidabili. La domanda non è più solo se OpenAI riuscirà a realizzare il suo futuro basato sugli agenti, ma se lo farà prima che Google, Anthropic, xAI o Meta la superino.