Lo sviluppo dei primi casi d’uso di quantum computing rappresenta uno dei passaggi più importanti per comprendere quanto la tecnologia stia iniziando a entrare nei processi aziendali. Al convegno Quantum Shift: the future starts now, organizzato dall’Osservatorio Quantum Computing & Communication del Politecnico di Milano, quattro realtà – Intesa Sanpaolo, Data Reply, Dompé e BIP – hanno raccontato sperimentazioni, limiti e lezioni apprese, restituendo un quadro realistico di come il settore privato si stia avvicinando alla tecnologia.
Indice degli argomenti
Finanza: tra problemi di ottimizzazione e valutazione delle reali opportunità
Nel settore finanziario, le applicazioni quantistiche vengono osservate con interesse crescente, ma con un approccio prudente. Davide Corbelletto, Distinguished Quantum Specialist & Team Leader di Intesa Sanpaolo, chiarisce che uno dei primi passi è identificare problemi che abbiano una struttura matematico-computazionale potenzialmente compatibile con algoritmi quantistici. L’obiettivo non è dimostrare una superiorità generalizzata, ma capire dove la tecnologia potrebbe offrire un contributo in futuro.
Corbelletto menziona l’ottimizzazione dei portafogli come uno dei campi più studiati e afferma che «quel che conta è comprendere se gli algoritmi quantistici permetteranno di trattare spazi di soluzioni oggi troppo grandi». La riflessione suggerisce che le banche stanno cercando di costruire un ponte tra la ricerca e la complessità delle operazioni finanziarie reali. Il tema della qualità dei dati, dei vincoli normativi e della scalabilità è parte integrante della valutazione.
Il relatore insiste sul fatto che il vantaggio quantistico non è ancora dimostrabile nei processi core e sottolinea che la tecnologia va osservata nel medio-lungo periodo. Il quantum computing, quindi, viene interpretato come una possibile evoluzione delle capacità di calcolo, non come una sostituzione dell’infrastruttura attuale.
Quantum-inspired e soluzioni ibride: il punto di vista dell’industria tecnologica
Davide Caputo, BU Manager presso Data Reply, introduce il tema della complementarità tra algoritmi quantistici e approcci “quantum-inspired”. Dalla trascrizione emerge che molte aziende stanno ottenendo risultati interessanti non da macchine quantistiche vere e proprie, ma da algoritmi classici progettati per imitare il comportamento di specifiche routine quantistiche.
Caputo spiega che «la vera innovazione, in questa fase, è capire cosa portare su un hardware quantistico e cosa invece può essere affrontato con metodi ispirati al quantum». La distinzione è cruciale per evitare investimenti prematuri e per mantenere un approccio metodologico che non dipenda dall’hype tecnologico. L’obiettivo è individuare processi in cui i quantum-inspired possano già offrire benefici, preparando allo stesso tempo il terreno per la futura integrazione di macchine quantistiche più avanzate.
Un altro punto discusso riguarda la collaborazione tra team aziendali e data scientist. Secondo Caputo, l’adozione della tecnologia non può essere delegata solo agli specialisti quantistici. Le aziende devono sviluppare una conoscenza minima interna che permetta di valutare criticamente proposte, fornitori e casi d’uso.
Farmaceutico: simulazioni molecolari come territorio di sperimentazione
Il settore farmaceutico rappresenta uno dei campi più studiati a livello internazionale per l’applicazione del quantum computing, e l’intervento di Filippo Lunghini, Artificial Intelligence Senior Specialist di Dompé, conferma questo trend. Lunghini spiega che una parte rilevante del lavoro riguarda la modellazione e le simulazioni molecolari, in cui la complessità delle interazioni atomiche rende il calcolo classico particolarmente oneroso.
Il relatore chiarisce che «le simulazioni quantistiche non sono ancora in grado di superare i metodi classici nei contesti industriali», ma allo stesso tempo sottolinea che l’esplorazione è essenziale per costruire conoscenze tecniche. Le attività ruotano attorno allo studio di problemi che potrebbero beneficiare di capacità quantistiche, come l’analisi delle conformazioni molecolari e la valutazione di proprietà energetiche.
Lunghini pone l’accento su un aspetto spesso trascurato: il valore della sperimentazione non si misura solo nel risultato finale, ma nella capacità di sviluppare competenze utili per interpretare le roadmap tecnologiche. È un punto che ritorna in tutto il panel: le aziende più attente non adottano la tecnologia per dimostrarne la superiorità, ma per decifrare quando e come potrà essere rilevante.
Consulenza e imprese: come costruire casi d’uso realistici
Il contributo di Matteo Chiesa, Data & AI Director di BIP, introduce un tema trasversale: la difficoltà di costruire casi d’uso concreti in un contesto in cui la maturità delle tecnologie varia molto. Chiesa osserva che uno dei problemi più frequenti riguarda l’identificazione dei processi giusti: non tutti i problemi industriali hanno una struttura adatta agli algoritmi quantistici, e spesso la sfida consiste nel riconoscere quelli che potrebbero beneficiarne.
Chiesa invita a prendere le distanze da una visione deterministica e afferma che «lo sforzo principale consiste nell’analizzare a fondo i processi aziendali per capire se esistono reali opportunità quantistiche». La questione non è trovare a tutti i costi un caso d’uso, ma evitare che l’interesse verso la tecnologia porti a progetti disallineati con le necessità aziendali.
Il relatore aggiunge un altro elemento centrale per la comprensione del settore: molti casi d’uso attuali non sono “quantum computing”, ma “quantum readiness”, ovvero percorsi di preparazione che includono formazione, reingegnerizzazione di processi e sviluppo di competenze digitali.
Una fotografia comune: più sperimentazioni che implementazioni
Nonostante le differenze tra i settori rappresentati, il panel restituisce un quadro coerente. I casi d’uso di quantum computing stanno aumentando, ma la maggior parte delle attività rimane confinata nella fase esplorativa. Le aziende stanno costruendo capacità interne, mappando i problemi che potrebbero beneficiare della tecnologia e avviando collaborazioni con centri di ricerca e vendor.
I quattro interventi condividono una consapevolezza: la promessa del quantum computing deve essere interpretata con lucidità. Non è realistico aspettarsi risultati immediati, ma è altrettanto rischioso ignorare segnali di maturazione che potrebbero modificare le dinamiche competitive nei prossimi anni.
Le competenze interne sono una componente fondamentale, perché solo chi conosce a fondo i propri processi può valutare correttamente le possibilità quantistiche. La collaborazione tra imprese, università e centri di ricerca è altrettanto centrale, in un’epoca in cui nessun attore può permettersi di procedere isolatamente.
Un’ulteriore dimensione riguarda la capacità di distinguere tra sperimentazione e implementazione. Il panel suggerisce che le aziende stanno imparando a misurare il valore della fase esplorativa non attraverso risultati immediati, ma attraverso le conoscenze accumulate. È un atteggiamento che permette di evitare aspettative eccessive e allo stesso tempo di prepararsi con metodo.
La fase attuale non è quella della maturità, ma della comprensione. E questo, per molte imprese, è già un passaggio cruciale.













