Nella computazione quantistica, uno dei problemi più persistenti e difficili da risolvere riguarda la correzione degli errori: i sistemi quantistici sono intrinsecamente fragili, e ogni operazione eseguita su un qubit introduce il rischio di decoerenza e di errori che si propagano lungo il calcolo. Un gruppo di ricercatori guidato da Shayan Majidy dell'Università di Harvard ha sviluppato un nuovo approccio algoritmico, denominato phantom codes, che promette di ridurre significativamente il numero di manipolazioni fisiche necessarie durante un calcolo quantistico complesso, con un guadagno di precisione fino a due ordini di grandezza rispetto ai metodi convenzionali. La ricerca si inserisce in un dibattito scientifico aperto da decenni: già alle origini della computazione quantistica, molti fisici dubitavano che questi sistemi potessero mai diventare strumenti praticamente utili, proprio a causa della loro vulnerabilità agli errori.
Per comprendere la portata di questo contributo, è necessario chiarire come funziona la correzione degli errori quantistici. I processori quantistici operano su unità fisiche chiamate qubit, ma per ridurre i tassi di errore si ricorre ai cosiddetti qubit logici: gruppi di qubit fisici che condividono informazione ridondante in modo tale che eventuali errori possano essere rilevati e corretti. Il problema è che molti dei programmi di correzione degli errori attualmente in uso sono efficaci nel conservare l'informazione, ma diventano inefficienti quando si tratta di eseguire computazioni articolate. Come spiega lo stesso Majidy, questi metodi riescono a proteggere i dati immagazzinati, ma faticano a gestire il calcolo vero e proprio.
Il nodo critico risiede nel processo di entanglement tra qubit logici. Per rendere due o più qubit logici entangled — condizione necessaria per molti algoritmi quantistici — i dispositivi devono normalmente agire fisicamente sui qubit stessi, ad esempio irradiandoli con laser o microonde. Ogni azione fisica di questo tipo costituisce una potenziale fonte di errore e allungano la durata complessiva del calcolo, aumentando il rischio di decoerenza. È qui che i phantom codes introducono un'idea concettualmente elegante: consentono di ottenere l'entanglement tra molteplici qubit logici senza che sia necessaria alcuna azione fisica aggiuntiva, sfruttando l'entanglement già presente nel sistema piuttosto che creandone di nuovo.
Per validare il metodo, Majidy e i suoi collaboratori hanno condotto simulazioni computazionali applicando i phantom codes a due scenari distinti: la preparazione di uno stato quantistico speciale, frequentemente impiegato come punto di partenza in molti algoritmi, e la simulazione di un modello semplificato di materiale quantistico. In entrambi i casi, l'approccio ha prodotto risultati con una precisione fino a 100 volte superiore rispetto ai metodi tradizionali di correzione degli errori, proprio grazie alla drastica riduzione del numero di manipolazioni fisiche richieste.
Tuttavia, i phantom codes non rappresentano una soluzione universale. Mark Howard dell'Università di Galway, in Irlanda, ha proposto un'analogia efficace per descriverne la natura: scegliere un metodo di correzione degli errori per un'applicazione quantistica è simile alla scelta di un'armatura — una corazza completa offre maggiore protezione di una cotta di maglia, ma è più pesante e meno versatile. I phantom codes offrono flessibilità, ma presentano anche dei limiti concreti, tra cui la necessità di impiegare un numero di qubit maggiore rispetto ad alcuni approcci tradizionali. Per questa ragione, Howard ritiene che possano essere impiegati con profitto in specifiche subroutine dei programmi quantistici, ma difficilmente costituiranno una soluzione completa al problema degli errori.
Dominic Williamson dell'Università di Sydney, in Australia, ha sottolineato che rimane aperta la questione di quanto i phantom codes possano risultare competitivi rispetto ad altri metodi di correzione degli errori già esistenti, e che la risposta dipenderà in parte dai futuri sviluppi dell'hardware quantistico. La ricerca in questo campo è in rapida evoluzione: dai computer quantistici basati su circuiti superconduttori a quelli che utilizzano atomi ultrafreddi come qubit fisici, le architetture hardware stanno progredendo in parallelo con gli algoritmi.
Non a caso, il gruppo di Majidy ha già avviato una collaborazione stretta con ricercatori che costruiscono computer quantistici basati proprio su atomi ultrafreddi — la tecnologia alla base, ad esempio, dei sistemi sviluppati dall'azienda QuEra. L'obiettivo dichiarato è integrare le lezioni apprese dallo sviluppo dei phantom codes con una conoscenza approfondita delle capacità pratiche dei qubit fisici, per arrivare a programmi quantistici più specificamente calibrati sulle caratteristiche dell'hardware su cui vengono eseguiti. Questa convergenza tra algoritmo e architettura rappresenta la frontiera più promettente per rendere i computer quantistici strumenti affidabili per simulazioni di materiali, ricerca farmacologica e problemi di ottimizzazione complessa.