Prospettive

Occhi puntati sull’hardware, collo di bottiglia della corsa alla fault tolerance quantistica

I Big lavorano, sgomitano e annunciano e gli investitori ci scommettono mentre le startup preferiscono occuparsi di software ma tutti sanno che sarà l’hardware a stabilire quando inizierà davvero l’era del quantum computing. Prima di poter fare largo uso di computer quantistici su casi d’uso reali e fonte di business, è necessario raggiungere la fault tolerance come spiegato nell’ultimo report di McKinsey. In attesa di dispositivi che non commettano errori, promessi per il 2030, il mondo del software “coltiva” community di developer preparando così un futuro mercato competente e ricettivo.

Pubblicato il 02 Mar 2022

quantum computing

C’è sempre più fermento attorno al quantum computing, sia da parte della comunità scientifica che ci lavora da tempo, sia da parte delle aziende che negli ultimi mesi sentono ormai prossima la commercializzazione di questa tecnologia. Per chi desidera realizzare applicazioni e algoritmi che la possano sfruttare al meglio, è ora iniziato un vero e proprio countdown e a dettarne il tempo è l’hardware. Secondo il recente report di McKinsey “Quantum computing: An emerging ecosystem and industry use cases” tutti dovrebbero volgere lo sguardo verso questo mondo, per capire quanto manca ad un computer quantistico utilizzabile per il proprio su casi d’uso reali e profittevoli e a cosa si sta lavorando per far sì che ciò accada presto.

Obiettivo fault tolerance, ma possibili casi d’uso anche prima

Le piattaforme hardware attualmente in fase di sviluppo sono impegnate, soprattutto, a ottenere un calcolo quantistico completamente corretto dagli errori e fault tolerant, per fornire risultati esatti e matematicamente accurati. Il raggiungimento di questo fondamentale traguardo è previsto per il 2030, l’anno del giro di boa per gli esperti. Ciò non significa, però, dover per forza attendere quella data per iniziare a trarre un valore commerciale dai computer quantistici.

Molti sono infatti coloro che, seguendo da vicino il settore, ritengono possibili alcuni casi d’uso con un significativo valore commerciale anche prima che chi si occupa di hardware sia in grado di garantire un’alta tolleranza ai guasti. C’è da mettere in conto che si tratterà di un percorso lungo e graduale, in cui le piattaforme sperimenteranno diverse strade. Quelle finora mostratesi più promettenti si basano sull’utilizzo di circuiti superconduttori e ioni intrappolati, oppure su reti fotoniche, qubit di spin e atomi neutri.

Volata in 2 tappe verso il 2030

L’ecosistema che gira attorno al quantum computing, in attesa di veder progredire l’hardware, guarda al futuro dividendolo in due fasi: fino al 2030 la prefault-tolerant e, dopo, la fault tolerant. Nella prima potrebbero esserci già dei risultati in settori come la crittografia, anche se la comunità di esperti non è concorde su questa aspettativa ma conferma compatta un previsto miglioramento delle prestazioni di circa 10 volte entro il 2030. Nel frattempo, alcune organizzazioni selezionate nella finanza, nel automotive e nella logistica sperimenteranno, o già stanno sperimentando, queste crescenti potenzialità per scopi di ottimizzazione. Altre, presumibilmente, si uniranno entro il 2030.

La fase fault-tolerant, nelle previsioni degli esperti, si divide in tre step corrispondenti ad altrettanti importanti traguardi hardware. Il primo sarà la realizzazione di un computer quantistico completamente corretto dagli errori, che sbloccherà una vasta gamma di casi d’uso in aree come la progettazione di farmaci e catalisi. Poi seguirà il superamento della soglia dei 1000 qubit logici con correzione di errore, che porterà a una potenza di calcolo e una capacità di gestione dei dati significativamente ampliate, adatte per affrontare problemi con enormi quantità di dati come quelli sul traffico su larga scala o supply chain.

Il terzo traguardo è poi quello rappresentato dall’arrivo del supercomputer quantistico universale, con una memoria quantistica ad accesso casuale (QRAM) in grado di elaborare i grandi volumi di dati necessari nel quantum machine learning, fino a sbloccare il pieno potenziale dell’AI quantistica.

Big Tech, investitori e startup di fronte alla sfida hardware

Durante questo lungo ma chiaro percorso, non mancheranno annunci di tappe importanti raggiunte da aziende impegnate in questa corsa. IBM, per esempio, ha già annunciato piani per rilasciare la sua macchina da oltre 1.000 qubit fisici entro la fine del 2023. Google mira a costruire un computer quantistico utile, con correzione degli errori, entro un decennio, mentre PsiQuantum punta sulla fotonica del silicio e si prepara ad assemblare il suo entro il 2025.

Spesso, forse per un eccesso di entusiasmo, nei titoli che amplificano i risultati parziali di questa corsa si scorda di precisare che non sono solo il numero dei qubit o i tassi di errore a determinare l’efficacia del calcolo quantistico, ma che esistono molti altri fattori che determinano la complessità della sfida in corso. Tra questi, la lunghezza del tempo in cui tali computer possono funzionare senza interruzioni, la velocità con cui riescono a elaborare gli input e il livello di connettività tra i diversi qubit.

Per nulla spaventati dalla complessità di questa corsa alla fault tolerance, gli investitori la vedono come un’audace ma stimolante opportunità di guadagno. Sette dei dieci più grandi accordi sulla tecnologia quantistica negli ultimi dieci anni sono infatti andati a produttori di hardware per il calcolo quantistico per importi fino a 650 milioni di dollari. Più timorose si mostrano invece le startup: poche hanno scelto di affrontare quella che per loro rappresenta una vera e propria sfida tecnologica. Si tratta infatti di scalare il numero di qubit in un computer quantistico e allo stesso tempo raggiungere un livello sufficiente di qualità dei qubit. Per affrontarla servirebbe una combinazione, oggi rara da trovare, di capitale, conoscenza profonda, esperienza nella fisica quantistica sperimentale e teorica e conoscenza del dominio delle opzioni di implementazione rilevanti.

I software provider preparano il mercato creando community di developer

La maggior parte delle startup che sta popolando l’ecosistema del quantum computing, quelle che più attirano attenzione e capitali, sono incentrate sul software. Offrono soprattutto servizi personalizzati mentre studiano le mosse e le reazioni dei potenziali clienti, esplorando le svariate possibilità di trasformare i propri progetti in ricavi. Solo quando la tecnologia (e soprattutto il mercato) saranno più maturi, si dedicheranno a un’offerta di prodotti e servizi chiavi in mano, accompagnando le organizzazioni nella comprensione di come utilizzare strumenti quantistici a beneficio del proprio business.

Non sarà, però, un passaggio immediato. Questo comporta infatti l’adozione di un paradigma di programmazione totalmente differente e da costruire da zero, cambiando punto di vista e scala di valutazione. Di fronte a questo panorama, che prevede tempi variabili e tante incognite, le startup e in generale chi sta puntando su servizi software legati al quantum computing sceglie spesso di iniziare a costruire delle community di sviluppatori attorno alle proprie offerte, omaggiandoli di kit di sviluppo per fidelizzarli e avvicinarli alla programmazione quantistica. L’idea è quella di preparare un terreno fertile e soprattutto con tutte le competenze necessarie per poter poi comprendere le potenzialità e il valore dei nuovi servizi che si andranno a sviluppare in futuro.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4