Il panorama delle tecnologie quantistiche sta attraversando una fase cruciale che ricorda da vicino gli albori dell'era informatica classica, quando il transistor non era ancora stato inventato e il futuro della computazione era ancora tutto da scrivere. Un'analisi comparativa pubblicata su Science da un consorzio internazionale di ricercatori evidenzia come il settore abbia ormai superato la fase puramente sperimentale per entrare in quella delle prime applicazioni concrete, pur rimanendo lontano dalla piena maturità tecnologica. Lo studio, frutto della collaborazione tra l'Università di Chicago, Stanford, il Massachusetts Institute of Technology (MIT), l'Università di Innsbruck e la Delft University of Technology, fornisce una valutazione sistematica dello stato attuale delle diverse piattaforme hardware quantistiche e identifica le sfide principali per raggiungere la scalabilità necessaria a computer quantistici, reti di comunicazione e sistemi di rilevamento di livello industriale.
Per tracciare un quadro oggettivo del livello di maturità raggiunto, i ricercatori hanno applicato la scala dei Technology Readiness Levels (TRL), una metodologia che misura lo sviluppo tecnologico su una scala da 1 (principi fondamentali osservati in laboratorio) a 9 (sistema operativo dimostrato in ambiente reale). L'approccio innovativo dello studio ha previsto l'utilizzo di modelli di intelligenza artificiale avanzati come ChatGPT e Gemini per stimare i TRL di sei principali piattaforme hardware quantistiche: qubit superconduttori, ioni intrappolati, difetti di spin, punti quantici a semiconduttore, atomi neutri e qubit fotonici ottici. Questi sistemi sono stati valutati nelle loro capacità di computazione, simulazione, networking e sensing, rivelando un panorama tecnologico frammentato ma in rapida evoluzione.
I risultati mostrano che i qubit superconduttori hanno ottenuto i punteggi più elevati per la computazione quantistica, mentre gli atomi neutri eccellono nella simulazione quantistica, i qubit fotonici dominano nel networking quantistico e i difetti di spin risultano superiori per il sensing quantistico. Tuttavia, come sottolinea William D. Oliver, professore di ingegneria elettrica e informatica al MIT e coautore dello studio, un TRL elevato oggi non indica che l'obiettivo finale sia stato raggiunto, né che la scienza sia completata e resti solo l'ingegneria. Nel contesto storico, i chip a semiconduttore degli anni Settanta avevano raggiunto il TRL-9 per quell'epoca, ma le loro capacità erano infinitesimali rispetto ai circuiti integrati contemporanei. Analogamente, le tecnologie quantistiche attuali hanno dimostrato funzionalità di sistema significative ma ancora relativamente modeste, che dovranno essere sostanzialmente migliorate e scalate.
Il decennio appena trascorso ha visto una transizione fondamentale: le tecnologie quantistiche sono passate da esperimenti dimostrativi a sistemi capaci di supportare applicazioni iniziali. Gli autori attribuiscono questa accelerazione alla stretta collaborazione tra università, agenzie governative e industria, lo stesso ecosistema che ha permesso la maturazione della microelettronica nel ventesimo secolo. Alcuni prototipi avanzati operano già come sistemi completi ed sono accessibili attraverso piattaforme cloud pubbliche, sebbene le loro prestazioni complessive rimangano limitate. Applicazioni ad alto impatto, come simulazioni di chimica quantistica su larga scala, potrebbero richiedere milioni di qubit fisici con tassi di errore molto inferiori a quelli attualmente raggiungibili.
Le sfide ingegneristiche per la scalabilità dei sistemi quantistici ricalcano in modo sorprendente quelle affrontate dall'informatica classica nei suoi primi decenni. La cosiddetta "tirannia dei numeri" che affliggeva gli ingegneri negli anni Sessanta – quando collegare fisicamente ogni componente diventava impraticabile all'aumentare della complessità – trova un parallelo diretto nelle moderne architetture quantistiche. La maggior parte delle piattaforme attuali si affida a linee di controllo individuali per ciascun qubit, un approccio che diventa rapidamente insostenibile quando si pensa a sistemi con milioni di elementi. La gestione del cablaggio e della trasmissione dei segnali rappresenta quindi uno dei principali ostacoli ingegneristici, insieme al controllo della temperatura, alla gestione energetica, alla calibrazione automatizzata e al coordinamento sistemico.
David Awschalom, primo autore dello studio e direttore del Chicago Quantum Exchange presso l'Università di Chicago, evidenzia come questo momento trasformativo ricordi i primissimi giorni del transistor: i concetti fisici fondamentali sono stabiliti, esistono sistemi funzionanti, e ora dobbiamo coltivare le partnership e gli sforzi coordinati necessari per raggiungere il pieno potenziale della tecnologia su scala industriale. La domanda chiave diventa quindi come affrontare le sfide delle architetture quantistiche scalabili e modulari, un interrogativo che richiede progressi sostanziali nella scienza dei materiali e nelle tecniche di fabbricazione per produrre dispositivi consistenti e di alta qualità, riproducibili in modo affidabile su larga scala.
Lo studio traccia paralleli espliciti con la lunga timeline di sviluppo dell'elettronica classica, dove innovazioni decisive hanno richiesto tempi di maturazione estesi. Gli autori enfatizzano la necessità di una progettazione sistemica dall'alto verso il basso, di una collaborazione scientifica aperta che eviti frammentazioni premature e di aspettative realistiche sui tempi di sviluppo. La pazienza, sottolineano i ricercatori, è stata un elemento chiave in molti sviluppi storici fondamentali, un monito importante per temperare le aspettative temporali nelle tecnologie quantistiche. Il percorso verso quantum computer pienamente operativi e sistemi di comunicazione quantistica su scala globale sarà probabilmente lungo e complesso, ma le fondamenta scientifiche e tecnologiche sono ormai solidamente poste, e la transizione dalla ricerca di base alle applicazioni pratiche è definitivamente iniziata.