La startup cinese DeepSeek ha lanciato la versione 3.1 del suo modello open-source, caratterizzata da una finestra di contesto significativamente ampliata che raggiunge i 128.000 token, equivalenti a circa 96.000 parole o due romanzi di 200 pagine ciascuno. L'annuncio, diffuso attraverso il gruppo WeChat ufficiale dell'azienda, segna un ulteriore passo avanti nella strategia dell'azienda, che punta esplicitamente agli utenti di ChatGPT, Gemini e simili, con un prodotto dalle prestazioni simili ma totalmente gratuito.
Il predecessore di questa versione, DeepSeek V3, aveva già scosso l'industria tecnologica a gennaio con una dichiarazione che ha fatto storia: solo 5,6 milioni di dollari per l'addestramento, utilizzando circa 2.000 chip Nvidia di generazione precedente. Una cifra che impallidisce di fronte ai centinaia di milioni investiti da OpenAI, Google e Anthropic per i loro modelli di punta. La notizia aveva provocato un crollo di 600 miliardi di dollari nella capitalizzazione di mercato di Nvidia in una sola seduta, dimostrando quanto l'approccio cinese possa risultare dirompente per l'ecosistema AI occidentale.
Il messaggio ritenuto pericoloso è estremamente semplice: possiamo fare le stesse cose che fate voi, spendendo meno della metà. Una pessima notizia per gli investitori, qualcosa che getta ombra sul futuro di aziende come OpenAI o Anthropic.
Tuttavia, il successo tecnologico si è scontrato con le preoccupazioni geopolitiche. Diversi governi hanno rapidamente vietato l'utilizzo del chatbot DeepSeek, temendo che i dati degli utenti potessero essere conservati su server cinesi, sollevando questioni di sicurezza nazionale e privacy che continuano a caratterizzare il dibattito sull'AI cinese.
Caratteristiche tecniche e innovazioni del V3.1
Le prime impressioni degli utenti che hanno testato la nuova versione parlano di un sistema "estremamente prolisso", secondo quanto riportato su Reddit. Un dettaglio tecnico interessante riguarda la scomparsa dell'indicatore "r1 nel pulsante di pensiero", suggerendo che la versione 3.1 potrebbe rappresentare un modello di ragionamento misto. Questa evoluzione potrebbe segnare una fusione tra le capacità standard del V3 e quelle avanzate di ragionamento del modello R1, anch'esso sviluppato da DeepSeek.
Il modello R1 merita una menzione particolare poiché rappresenta un ponte tra l'innovazione cinese e il mercato occidentale. Attualmente è disponibile attraverso i tre principali provider cloud americani: AWS, Microsoft Azure e Google Cloud. Questi servizi garantiscono che il modello sia ospitato localmente, assicurando che i dati non vengano inviati in Cina, una soluzione che cerca di conciliare le capacità tecnologiche avanzate con i requisiti di sicurezza occidentali. Per gli utenti europei, tuttavia, resta la possibilità che i dati siano trasferiti in USA senza potersi opporre.
La strategia cinese dell'open source
Aziende come Alibaba, DeepSeek o Moonshot stanno sviluppando modelli open-source che vengono distribuiti gratuitamente, una strategia che secondo gli analisti mira a sacrificare i ricavi immediati per conquistare quote di mercato globali. Questa approccio non è casuale: il 14° piano quinquennale cinese per lo sviluppo, pubblicato nel 2020, aveva già identificato nell'open source una priorità strategica nazionale.
I manager delle startup cinesi di AI vedono nell'offerta di modelli aperti il modo più veloce per entrare in nuovi mercati e competere direttamente con i colossi americani. Una filosofia che sta dando risultati concreti: nella corsa globale all'intelligenza artificiale, solo la Cina riesce attualmente a competere efficacemente con gli Stati Uniti, con modelli che si avvicinano sempre più alle prestazioni delle soluzioni americane di punta.
Nel frattempo, la comunità degli sviluppatori attende con interesse il rilascio di R2, la prossima evoluzione del modello di ragionamento R1, mentre DeepSeek continua a dimostrare che l'innovazione nell'AI può arrivare anche con budget considerevolmente inferiori rispetto agli standard occidentali.