Anthropic ha presentato la settimana del 6-7 maggio 2026, durante la sua conferenza per sviluppatori Code with Claude, tre nuove funzioni per i Claude Managed Agents — gli agenti gestiti che girano sulla piattaforma di Anthropic: Dreaming («sognare»), Outcomes e l'orchestrazione multi-agente. L'obiettivo dichiarato è affrontare i tre problemi più fastidiosi quando si mandano in produzione agenti che lavorano su compiti lunghi e in più passi: tenerli accurati, farli imparare nel tempo ed evitare che diventino un collo di bottiglia.
Dreaming: l'agente rivede le sessioni passate e si corregge
Dreaming è un processo pianificato (per esempio notturno) che passa in rassegna le sessioni passate dell'agente e le sue memorie, ne estrae schemi ricorrenti e «cura» i ricordi: errori che si ripetono, flussi di lavoro su cui più agenti convergono in modo indipendente, preferenze condivise da un team di agenti. In pratica fa emergere ciò che nessuna singola sessione potrebbe vedere da sola. Lo sviluppatore può scegliere se far aggiornare la memoria in automatico oppure rivedere le modifiche prima che vengano applicate. Anthropic cita risultati concreti tra i primi utilizzatori: l'azienda di IA legale Harvey avrebbe visto crescere di circa sei volte il tasso di completamento dei compiti dopo aver attivato Dreaming.
Al momento Dreaming è disponibile in research preview: una versione iniziale pensata per la sperimentazione, non ancora per carichi critici.

Outcomes: definisci cosa significa «fatto bene»
Con Outcomes lo sviluppatore specifica, tramite una rubrica, che aspetto ha un compito completato con successo. Un «grader» separato valuta in modo indipendente l'output rispetto a quei criteri; se non li soddisfa, indica cosa manca e l'agente riprova. Si può inoltre configurare l'agente perché invii una notifica via webhook al termine del lavoro. È un modo per spostare il controllo qualità dentro il ciclo dell'agente, invece di affidarlo solo alla revisione umana a valle. Outcomes è in beta pubblica, disponibile a tutti gli sviluppatori della piattaforma Claude. Anthropic riferisce, per esempio, che l'azienda Wisedocs avrebbe dimezzato i tempi di revisione documentale usando Outcomes.
Orchestrazione multi-agente: un capo-agente che delega ai «specialisti»
La terza funzione permette a un agente «lead» di scomporre un lavoro complesso e delegarlo ad agenti specialisti che lavorano in parallelo, ciascuno con i propri modelli, prompt e strumenti, su un filesystem condiviso, contribuendo al contesto del capo-agente. Gli agenti mantengono un registro persistente degli eventi, così il lead può «controllare» lo stato a metà del flusso. Anthropic porta l'esempio di Netflix, che la userebbe per il troubleshooting delle piattaforme: agenti che indagano in parallelo cronologia dei deploy, log degli errori, metriche e ticket di supporto. Anche l'orchestrazione multi-agente è in beta pubblica.
Come provarlo
Le tre funzioni si usano dalla piattaforma per sviluppatori di Anthropic e dagli strumenti per costruire agenti (il Claude Agent SDK e la console). In pratica:
- serve un account sviluppatore Anthropic e una chiave API; gli agenti gestiti vengono fatturati in base al consumo di token dei modelli sottostanti (i listini Claude restano quelli per modello);
- per Outcomes e l'orchestrazione multi-agente l'accesso è aperto a tutti gli sviluppatori della piattaforma; basta abilitare le opzioni nella configurazione dell'agente (definire la rubrica per Outcomes, dichiarare gli agenti specialisti per l'orchestrazione);
- per Dreaming occorre attivare la research preview e impostare la pianificazione del processo, scegliendo tra aggiornamento automatico della memoria o revisione manuale.
Un caso d'uso tipico: un agente di assistenza che ogni notte «sogna» sulle conversazioni del giorno, individua le risposte che hanno richiesto correzioni e aggiorna le proprie note; un Outcome definisce che cosa rende «risolto» un ticket; e quando arriva un caso complesso il lead agent attiva uno specialista per i rimborsi e uno per la documentazione, in parallelo.
I limiti e le cautele
Funzioni del genere ampliano la superficie di rischio: un agente che modifica da solo la propria memoria, o che delega ad altri agenti su un filesystem condiviso, va circoscritto con permessi stretti, controlli sugli strumenti che può usare e revisione umana sui passaggi sensibili — lo stesso Anthropic invita a non concedere accessi ampi «per comodità». Inoltre Dreaming è ancora in anteprima: utile per esplorare il paradigma dell'agente che impara tra una sessione e l'altra, meno per affidargli subito processi critici. La direzione, comunque, è chiara: dopo la corsa ai modelli, la competizione si sposta su come far lavorare bene gli agenti su compiti lunghi, e l'apprendimento «offline» dalle sessioni passate è uno dei terreni su cui i laboratori stanno spingendo.




