La correzione degli errori quantistici rappresenta da tre decenni il principale ostacolo alla realizzazione di computer quantistici su larga scala. Questi dispositivi rivoluzionari codificano l'informazione in singoli atomi anziché nei bit convenzionali, promettendo una potenza di calcolo esponenzialmente superiore grazie al fenomeno dell'entanglement quantistico. Tuttavia, i qubit – l'equivalente quantistico dei bit classici – sono estremamente fragili e tendono a perdere il loro stato quantico, causando errori che si accumulano rapidamente nei calcoli. Un gruppo di ricerca guidato dall'Università di Harvard ha ora dimostrato per la prima volta un sistema in grado di rilevare e correggere gli errori al di sotto di una soglia critica di prestazioni, aprendo concretamente la strada a macchine quantistiche pratiche e scalabili.
Lo studio, pubblicato sulla rivista Nature nel gennaio 2025, descrive un'architettura "fault-tolerant" (tollerante ai guasti) basata su 448 qubit atomici di rubidio neutro. Il sistema integra tutti gli elementi essenziali per il calcolo quantistico corretto dagli errori: l'entanglement fisico tra particelle, l'entanglement logico a livello computazionale, le operazioni logiche "magiche" necessarie per l'universalità del calcolo, e la rimozione dell'entropia generata dal processo di correzione. Mikhail Lukin, co-direttore della Quantum Science and Engineering Initiative di Harvard e autore senior della ricerca, ha sottolineato che si tratta degli esperimenti più avanzati mai condotti su qualsiasi piattaforma quantistica, creando le fondamenta scientifiche per il calcolo quantistico pratico su vasta scala.
La metodologia adottata dal team impiega tecniche sofisticate come il "teletrasporto quantistico", che consente di trasferire lo stato quantico di una particella ad un'altra situata altrove senza contatto fisico diretto. I ricercatori hanno implementato circuiti complessi con dozzine di strati di correzione degli errori, dimostrando che il sistema riesce a sopprimere gli errori sotto la soglia critica: il punto in cui aggiungere qubit riduce ulteriormente gli errori anziché aumentarli, come avveniva nelle architetture precedenti. Questo rappresenta un cambiamento di paradigma fondamentale, poiché nei sistemi quantistici precedenti l'incremento della complessità portava paradossalmente a un peggioramento delle prestazioni.
La collaborazione, coordinata da Harvard insieme al Massachusetts Institute of Technology, ha visto la partecipazione di Markus Greiner, professore di fisica ad Harvard, e Vladan Vuletić del MIT, oltre a ricercatori del Joint Quantum Institute dell'Università del Maryland e del National Institute of Standards and Technology. Il progetto si avvale anche della partnership con QuEra Computing, una startup nata dai laboratori di Harvard e MIT. Dolev Bluvstein, primo autore dello studio e ora professore assistente al Caltech, ha evidenziato che per la prima volta dispongono di un'architettura concettualmente scalabile, pur rimanendo numerose sfide tecniche da superare per arrivare a computer con milioni di qubit.
I computer quantistici sfruttano proprietà controintuitive della fisica quantistica che consentono una potenza di elaborazione enormemente superiore rispetto ai sistemi convenzionali. Mentre nei computer classici raddoppiare il numero di bit raddoppia la potenza di calcolo, nei sistemi quantistici l'aggiunta di qubit aumenta esponenzialmente le capacità grazie all'entanglement quantistico – il fenomeno per cui particelle possono rimanere correlate istantaneamente indipendentemente dalla distanza. Tuttavia, questa stessa proprietà rende i qubit intrinsecamente suscettibili a perdere il loro stato quantico e l'informazione codificata, facendo della correzione degli errori un prerequisito imprescindibile.
Il team di Harvard si specializza nell'utilizzo di atomi neutri di rubidio, elementi privi di carica elettrica netta poiché possiedono un numero uguale di protoni ed elettroni. Attraverso laser ad alta precisione, i ricercatori modificano la configurazione elettronica degli atomi per codificarli come qubit portatori di informazione. Alexandra Geim, dottoranda in fisica ad Harvard e co-autrice principale, ha spiegato che l'approccio si è concentrato sulla comprensione dei meccanismi fondamentali per abilitare computazioni scalabili con circuiti profondi, eliminando elementi superflui e riducendo le risorse necessarie per raggiungere un regime pratico più rapidamente.
La ricerca si inserisce in una competizione globale tra diverse piattaforme di qubit, che includono vari tipi di atomi, ioni e qubit superconduttori. Hartmut Neven, vicepresidente di ingegneria del team Google Quantum AI, ha definito il lavoro un avanzamento significativo verso l'obiettivo condiviso di costruire computer quantistici utili su larga scala. Nel settembre precedente, lo stesso gruppo Harvard-MIT-QuEra aveva pubblicato un altro articolo su Nature dimostrando un sistema con oltre 3.000 qubit capace di operare continuamente per più di due ore, superando un'ulteriore barriera tecnica legata alla perdita di atomi.
Le applicazioni potenziali dei computer quantistici tolleranti ai guasti spaziano dalla scoperta di nuovi farmaci alla crittografia, dall'apprendimento automatico all'intelligenza artificiale, dalla finanza alla progettazione di materiali avanzati. Tuttavia, è cruciale distinguere tra le prospettive teoriche e i tempi realistici di implementazione: nonostante i progressi dimostrati, permangono sfide tecniche considerevoli prima di arrivare a sistemi con milioni di qubit operativi. Lukin ha sottolineato come anni di sperimentazione abbiano permesso di identificare quali ostacoli siano realmente insormontabili e quali possano essere aggirati, precisando che la fisica rimane una scienza sperimentale dove testare idee fondamentali in laboratorio consente di intravvedere finalmente la luce in fondo al tunnel.
Con i recenti progressi, i ricercatori ritengono che gli elementi fondamentali per costruire computer quantistici pratici stiano finalmente convergendo. Il grande sogno coltivato per decenni dalla comunità scientifica sembra ora, per la prima volta, a portata di mano diretta. Rimangono aperti interrogativi sulla stabilità a lungo termine, sull'integrazione di milioni di qubit e sulla riduzione ulteriore del tasso di errore, ma l'architettura dimostrata fornisce una base solida e scalabile su cui costruire le prossime generazioni di questi dispositivi straordinari.