I computer quantistici, per quanto promettenti nel risolvere problemi complessi inaccessibili ai sistemi classici, sono estremamente vulnerabili al rumore ambientale e agli errori di calcolo. Verificare che un processore quantistico stia effettivamente eseguendo le operazioni richieste senza commettere errori è una sfida fondamentale, paragonabile al tentativo di controllare la correttezza di un calcolo eseguito da una macchina che non ci fidiamo completamente. Un team internazionale composto da ricercatori della Sorbonne University, dell'University of Edinburgh e della società Quantinuum ha ora dimostrato per la prima volta un protocollo di verifica crittografica che funziona direttamente su un singolo chip quantistico, senza necessità di apparati esterni.
Lo studio, pubblicato su Physical Review Letters, rappresenta un salto concettuale significativo rispetto agli approcci precedenti. Tradizionalmente, i protocolli di verifica quantistica richiedevano configurazioni client-server, in cui un dispositivo esterno (il "client") inviava istruzioni a un computer quantistico più potente (il "server") inserendo delle "trappole" casuali nei calcoli per verificarne l'onestà. Il metodo sviluppato dal gruppo di ricerca ribalta questa logica: il processore quantistico stesso diventa il soggetto "non fidato" e viene costruito in modo da poter certificare autonomamente i propri risultati attraverso test integrati e randomizzazione delle operazioni.
La fisica teorica Cica Gustiani, prima autrice dello studio, spiega che l'approccio si basa sull'alternanza casuale tra cicli di test e cicli computazionali reali. "Abbiamo essenzialmente fatto in modo che i computer quantistici provassero di dire la verità", afferma la ricercatrice. "Dai risultati dei cicli di test possiamo decidere statisticamente se fidarci o meno dei risultati computazionali". Il protocollo si ispira a tecniche crittografiche consolidate ma le adatta alle specifiche esigenze dei processori quantistici odierni, quelli che nel gergo tecnico vengono definiti dispositivi NISQ (Noisy Intermediate-Scale Quantum), caratterizzati da un numero limitato di qubit e da una significativa presenza di rumore.
La dimostrazione sperimentale è stata condotta sul processore H1-1 di Quantinuum, un sistema basato su ioni intrappolati. Questa piattaforma tecnologica offre vantaggi significativi in termini di fedeltà delle operazioni logiche e precisione delle misurazioni, caratteristiche cruciali per implementare protocolli di verifica così sofisticati. Dan Mills, ricercatore presso Quantinuum e coautore dello studio, sottolinea l'importanza pratica del lavoro: "Man mano che le nostre macchine diventano sempre più grandi, diventa impossibile verificarne gli output attraverso simulazioni classiche. Questo sarà certamente rilevante per Helios e le generazioni successive dei nostri processori quantistici".
Il team è riuscito a scalare il protocollo fino a 52 nodi, riutilizzando strategicamente ioni già misurati a partire da un pool di 20 ioni disponibili nella trappola. Questa è attualmente la più grande computazione quantistica measurement-based verificata con successo. Il risultato assume particolare rilevanza se confrontato con approcci alternativi come l'esperimento Quantum Echoes di Google, che richiede due processori quantistici separati per verificare in modo incrociato i risultati. Il metodo sviluppato dal consorzio europeo-statunitense elimina questa necessità, consentendo l'autoverifica in tempo reale.
Dal punto di vista metodologico, il protocollo si basa su tre capacità fondamentali dei moderni processori quantistici: le misurazioni a metà circuito (mid-circuit measurements), le operazioni adattive che dipendono dai risultati delle misurazioni precedenti, e l'uniformità delle caratteristiche dei qubit. Prima di eseguire il protocollo vero e proprio, i ricercatori hanno condotto una fase di calibrazione consistente in una tomografia a singolo qubit, necessaria per quantificare il livello di confidenza ottenibile con quello specifico dispositivo e numero di qubit. Questa procedura ha permesso di caratterizzare con precisione il rumore presente nel sistema.
Un aspetto cruciale riguarda il modello di rumore considerato. Il protocollo funziona sotto l'assunzione di rumore markoviano, che copre la maggior parte dei canali quantistici e può essere simulato efficacemente. In questo tipo di rumore, gli errori non hanno "memoria" degli stati precedenti del sistema. Tuttavia, i dispositivi reali possono manifestare anche effetti non-markoviani, in cui gli errori mostrano correlazioni temporali. Come ammette la stessa Gustiani, "questa rimane un'area di ricerca attiva con molte sfide aperte".
La sicurezza crittografica del protocollo rappresenta un ulteriore elemento distintivo. Non solo il sistema verifica che le computazioni siano state eseguite correttamente nonostante il rumore hardware e le possibili miscalibrazioni, ma garantisce anche che le informazioni elaborate non possano essere contraffatte o manipolate. Questo aspetto sarà fondamentale quando i computer quantistici verranno impiegati per applicazioni sensibili in ambito finanziario, crittografico o di sicurezza nazionale.
Le prospettive future della ricerca si concentrano su due direzioni principali. La prima riguarda l'adattamento del protocollo ad architetture fault-tolerant, ovvero sistemi quantistici dotati di codici di correzione degli errori. Questo rappresenta una sfida significativa poiché richiede l'integrazione delle tecniche di verifica con i meccanismi di rilevazione e correzione degli errori, ma è essenziale per il passaggio verso computer quantistici realmente affidabili e scalabili. La seconda direzione punta al perfezionamento dei limiti di confidenza, permettendo di stimare con maggiore precisione quanti qubit possono essere verificati in modo affidabile in presenza di livelli specifici di rumore.
Questo lavoro si inserisce in un momento cruciale per il settore della computazione quantistica. Con processori che superano ormai le centinaia di qubit e si avvicinano alla cosiddetta "supremazia quantistica" per applicazioni pratiche, la capacità di verificare autonomamente i risultati diventa non più un optional teorico ma una necessità operativa. Come conclude Mills, "continueremo a sviluppare le nostre capacità fault-tolerant con ogni nuova generazione di macchine, e adattare queste tecniche di verifica per essere utilizzate insieme ai codici di rilevazione e correzione degli errori è importante e presenta nuove sfide, ma non vediamo l'ora di affrontarle".