Anthropic e la Bill & Melinda Gates Foundation hanno annunciato il 14 maggio un impegno congiunto da 200 milioni di dollari distribuiti su quattro anni. La cifra include finanziamenti diretti, crediti di utilizzo di Claude e supporto tecnico dei team di Anthropic ai partner della fondazione. L'annuncio sul blog di Anthropic e quello parallelo sul sito della Gates Foundation hanno chiarito quattro filoni: salute globale, educazione, mobilita' economica e dataset linguistici.
"Questo impegno e' al centro degli sforzi di Anthropic per estendere i benefici dell'IA in aree dove i soli mercati non lo faranno," si legge nella nota di Anthropic. La cifra non e' enorme rispetto ai 30 miliardi di ARR del laboratorio, ma e' la prima partnership di portata internazionale focalizzata sul "social impact" annunciata da uno dei grandi laboratori.
Salute globale: polio, HPV, preeclampsia e malaria
La fetta piu' grande va alla salute globale, in particolare ai paesi a basso e medio reddito dove 4,6 miliardi di persone non hanno accesso a servizi medici essenziali. Le aree specifiche: ricerca su malattie ad alto carico e neglette, screening accelerato di candidati per vaccini contro HPV (responsabile di gran parte dei tumori cervicali) e terapie per la preeclampsia (causa di un quinto delle morti materne in Africa). Anthropic mettera' Claude a disposizione di laboratori e ONG via crediti d'uso e supporto degli ingegneri.
Una parte rilevante e' l'Institute for Disease Modeling, la divisione di modellistica epidemiologica della Gates Foundation, che usera' Claude per migliorare le previsioni sul dove e come distribuire farmaci per malaria e tubercolosi. Le previsioni di trasmissione delle malattie sono il punto debole della distribuzione: troppe campagne vaccinali falliscono perche' arrivano nei luoghi sbagliati o nel momento sbagliato.
Educazione: tutoring matematico, advising universitario, curricoli
Il pacchetto educativo punta agli studenti K-12 negli Stati Uniti, in India e nell'Africa subsahariana. I partner svilupperanno tutor matematici basati su Claude, strumenti di college advising per orientare gli studenti dell'ultima fascia superiore e materiali curricolari adattabili. Il dettaglio piu' interessante: Anthropic finanziera' la creazione di benchmark pubblici, dataset e knowledge graph per misurare se questi strumenti funzionano davvero. La promessa e' che i risultati saranno open, non chiusi: cosi' i benchmark di tutoring matematico potranno essere usati anche da OpenAI, Google e Mistral, accelerando il settore.
Lingue africane: i dataset che mancano
I modelli di frontiera funzionano bene in inglese e in una decina di lingue europee, ma falliscono su swahili, hausa, yoruba, amharic, zulu. La Gates Foundation e Anthropic stanno finanziando la raccolta di dataset di qualita' per le principali lingue africane, con la condizione esplicita che i dati restino di pubblico dominio: chiunque, anche concorrenti di Anthropic, potra' usarli per migliorare i propri modelli.
E' una scelta importante anche politicamente. Negli ultimi due anni alcuni governi africani hanno protestato per il fatto che i laboratori americani estraggono dati linguistici da fonti locali senza compenso. Tenere i dataset aperti e versarli alla comunita' di ricerca e' un modo per disinnescare la critica.
Mobilita' economica: agricoltura e curriculum
La quarta gamba del progetto e' la mobilita' economica. Due esempi citati nella nota di Anthropic: strumenti di IA per piccoli agricoltori (consigli colturali, previsioni meteo localizzate, decisioni sull'irrigazione basate su Claude) e portable skills records, ossia certificazioni digitali delle competenze trasportabili tra datori di lavoro, pensate per il mercato statunitense dove milioni di lavoratori non hanno una storia formale di certificazioni.
Cosa significa per Claude come prodotto
L'accordo da' visibilita' enorme ad Anthropic in settori dove finora ChatGPT e' il brand dominante: scuola, ONG, ospedali. Per i partner della Gates Foundation, accedere a Claude Sonnet 4.7 e Opus 4.7 con crediti gratuiti significa poter sperimentare su scala con un modello allo stato dell'arte senza che la fondazione debba spendere milioni in API. Pharmaphorum nota che la collaborazione e' anche un'occasione per testare Claude su prompt clinici e di salute pubblica, in vista di una versione futura specializzata.
Le critiche: filantropia o lobbying?
Non tutti applaudono. La Algorithmic Justice League e diverse ONG africane hanno notato che le grandi partnership filantropiche dei laboratori AI sono anche operazioni di marketing per posizionarsi davanti ai governi che dovranno legiferare. Il rischio segnalato: che Anthropic finisca per definire da sola gli standard dei "tutor matematici" usati da milioni di studenti, senza un controllo pubblico equivalente.
La risposta di Anthropic e' che i benchmark verranno rilasciati come public goods, e che il modello stesso resta valutabile dai partner della Gates Foundation, che hanno un'esperienza ventennale nel valutare cosa funziona e cosa no nei progetti di salute globale. La discussione, intanto, fa parte di un dibattito piu' ampio: dopo l'investimento di Microsoft in OpenAI e quello di Google e Amazon in Anthropic, l'arrivo della Gates Foundation come partner non commerciale e' visto da molti come un buon equilibrio per il settore.




