Cloud Hypervisor, che fornisce e mantiene uno dei monitor di macchine virtuali più utilizzati dai servizi cloud pubblici, ha deciso di vietare qualsiasi contributo di codice generato o derivato da Large Language Models, segnando una posizione netta in un dibattito che coinvolge l'intera comunità open source. La nuova policy arriva con la versione 48 del software, e sembra essere un tentativo di proteggere il progetto da potenziali complicazioni legali legate all'uso dell'intelligenza artificiale nello sviluppo.
Cos'è Cloud Hypervisor
La storia di Cloud Hypervisor inizia nel 2018, quando giganti tecnologici come Google, Intel, Amazon e Red Hat decisero di unire le forze per accelerare lo sviluppo di componenti di virtualizzazione. Questa collaborazione diede vita al progetto rust-vmm, costruito utilizzando il linguaggio di programmazione Rust per garantire sicurezza e prestazioni elevate. Intel guidò successivamente una biforcazione del progetto, creando Cloud Hypervisor come soluzione specializzata per workload cloud.
Il progetto trovò casa presso la Linux Foundation nel 2021, attirando il supporto di altri attori internazionali come Alibaba, ARM, ByteDance e Microsoft. Oggi la lista dei sostenitori include anche AMD, Ampere, la tedesca Cyberus Technology e la cinese Tencent Cloud, dimostrando l'ampio consenso industriale attorno a questa tecnologia.
Cloud Hypervisor si è poi evoluto come Virtual Machine Monitor open source che funziona sia su KVM che su Microsoft Hypervisor. La sua peculiarità risiede nell'essere stato progettato specificamente per i servizi Infrastructure-as-a-Service (IaaS) dei cloud pubblici, con personalizzazioni ottimizzate per l'hardware acquistato in grandi volumi dai fornitori di servizi cloud.
La versione 48 introduce significative migliorie tecniche, tra cui la possibilità di supportare fino a 8192 vCPU su host x86_64 utilizzando KVM, un aumento considerevole rispetto alle precedenti 254 unità. Altre novità includono il supporto per la memoria condivisa tra macchine virtuali e un miglioramento delle prestazioni di pausa per VM che utilizzano molte vCPU.
La controversia dell'intelligenza artificiale
La decisione di vietare contributi generati da AI nasce da preoccupazioni concrete espresse nella documentazione del progetto. I maintainer temono che gli strumenti di coding basati su AI, probabilmente addestrati su codice open source, possano aver incorporato materiale protetto da copyright o pubblicato sotto licenze restrittive. Questa incertezza legale rappresenta un rischio significativo per tutti i contributor del progetto, che potrebbero diventare bersagli di contenziosi legali.
Tuttavia, l'implementazione pratica di questa policy si rivela problematica. Philipp Schuster di Cyberus Technology ha espresso dubbi sulla fattibilità del divieto, sottolineando come sia impossibile garantire che il codice non sia stato almeno parzialmente migliorato con l'ausilio di LLM. La risposta del contributor Bo Chen suggerisce l'introduzione di una procedura con checkbox obbligatorio nelle pull request, richiedendo agli sviluppatori di confermare esplicitamente di aver letto e accettato le linee guida sui contributi.
Oltre alle questioni legate all'AI, la versione 48 porta miglioramenti pratici significativi. Una delle aggiunte più rilevanti è la documentazione completa per l'esecuzione di guest Windows 11, una funzionalità che dovrebbe facilitare lo sviluppo di prodotti desktop-as-a-service basati su cloud. Il progetto ha anche rimosso il supporto per le Intel Software Guard Extensions (SGX), segnalando un cambiamento nelle priorità tecnologiche.
Queste evoluzioni posizionano Cloud Hypervisor come una soluzione sempre più matura nel panorama della virtualizzazione enterprise, offrendo un'alternativa open source alle soluzioni proprietarie tradizionali. La sfida ora sarà bilanciare l'innovazione tecnologica con la crescente complessità legale introdotta dall'era dell'intelligenza artificiale generativa.