Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Quantum computing: l’informatica guarda verso una nuova era?

pittogramma Zerouno

Quantum computing: l’informatica guarda verso una nuova era?

02 Ago 2004

di Piero Scaruffi

L’applicazione  della fisica dei quanti ai sistemi per il calcolo potrebbe portare ad una vera rivoluzione nell’informatica, con risvolti di grande portata in molti settori applicativi. Certo, i problemi tecnologici non sono da poco, ma quando università e grande industria lavorano assieme sotto la spinta della difesa… è solo questione di tempo 

Albert Chang, della Duke University, ha annunciato di aver realizzato un nuovo tipo di transistor che contiene parti microscopiche capaci di ‘quantum computing’. Si tratta d’un annuncio importante che potrebbe portare questo concetto dal campo teorico a quello industriale. Per intenderci: i computer lavorano in codice binario, con zeri e uno, perchè i transistor sono capaci di rappresentare e trasmettere solo informazioni binarie. Inventare un transistor ‘quantistico’ significa realizzare il mattone su cui diventa possibile costruire un computer diverso.
Negli anni ’80 il fisico Richard Feynman scrisse un articolo in cui sosteneva che l’unico modo di simulare un sistema quantistico è di costruire un computer che, a sua volta, si comporti come un sistema quantistico. Un sistema quantistico è un sistema in cui vige un regime di incertezza, anzi, di ambiguità: un elettrone è sia qui sia là; sta ruotando sia in senso orario sia in senso anti-orario, e così via. Nel mondo quantistico uno stato binario non è uno o zero: è sia uno sia zero (ma con diverse probabilità). Lo stato quantistico si può immaginare come un’onda di probabilità: ciascuno dei valori di quell’onda è un valore possibile, e ciascuno è ‘pesato’ con una certa probabilità. L’interpretazione comune data a questo fatto è che il sistema assume tutti quei possibili e contraddittori valori, e la probabilità ad essi assegnata è la probabilità che, compiendo un esperimento, si ottenga quel particolare valore. Pertanto un computer quantistico (che, per rispettare gli effetti previsti dalla teoria, dev’essere un sistema estremamente piccolo; un insieme di poche particelle elementari) sarebbe un computer capace di ragionare su stati infinitamente intermedi tra un valore e il suo opposto.

Arrivano i militari…
Nel 1994 Peter Shor dei Bell Labs pubblicò un altro articolo importante, in cui dimostrava che un computer costruito su tali princìpi potrebbe risolvere in pochi secondi tutti i problemi di crittografia, essendo tali problemi risolvibili con la fattorizzazione di grandi numeri, che un computer quantistico gestirebbe con facilità. Il fatto destò l’interesse del Darpa, l’ente della Difesa che sovvenziona progetti strategici, che nel 2001 lanciò il programma ‘Quist’ (100 milioni di dollari), di fatto l’equivalente di una start-up incaricata di inventare il quantum computer. Quest’anno lo stesso ente ha lanciato il progetto ‘Foqus’ per finanziare la costruzione di quantum computer in grado di decifrare in 30 secondi un codice crittografato con 128 bit, fatto che farebbe crollare l’intero edificio dell’e-commerce, perchè quel computer sarebbe in grado di leggere i dati di tutti i database del mondo, comprese carte di credito, password e così via.
Bisogna riuscire a costruire e mettere in relazione un po’ di ‘qubit’, l’equivalente quantistico del bit tradizionale. Non ne servono molti di qubit: un quantum computer di 10 qubit sarebbe già capace di fare 1.024 calcoli contemporanei e uno di 20 arriverebbe a più di un milione, come usare un milione di Pc in parallelo.
La ricerca non si limita agli Usa: a Vienna l’Institute for Theoretical Physics (http://tph.tuwien.ac.at sta mettendo a punto un linguaggio di programmazione per quantum computer, oggi in beta release); in Australia esiste dal 2000 un Centre for Quantum Computer Technology (www.qcaustralia.org) e il primo qubit in silicio è stato realizzato da Robert Clark della University of New South Wales di Sydney alla fine del 2002; il Canada ha aperto un Institute for Quantum Computing (www.iqc.ca); e in Giappone la Senko Corporation (www.senko-corp.co.jp) ha messo a punto il primo “quantum computer simulator”.

…e la ricerca dei big dell’it
Ma è negli Usa che la cosa è stata presa più seriamente: il centro di ricerca Ibm di San Jose (www.research.ibm.com), in collaborazione con la Stanford University, ha costruito il quantum computer oggi più grande del mondo (sette qubit) e lo ha usato per dimostrare la validità dell’algoritmo concepito da Peter Shor dieci anni fa; Microsoft ha assunto Michael Freedman, un guru del campo; il CalTech offre già un corso di ‘Quantum Computing’ e un simile corso verrà presto istituito a Berkeley, sempre in California.
Peter Shor stima che ci vorranno ancora dieci anni per costruire un quantum computer che serva a qualcosa, e ce ne vorranno almeno venti prima di costruire un quantum computer che rivaleggi con i supercomputer di oggi. In altre parole: le difficoltà tecnologiche di impacchettare tutte queste invenzioni in qualcosa che poi si possa vendere a qualcuno (per dirne una: il funzionamento di un quantum computer richiede livelli energetici estremamente bassi, cioè temperature operative vicine allo zero assoluto), non sono indifferenti. Ma forse il problema maggiore, come sempre capita quando nasce un nuovo genere di computer, è trovare la “killer application”. Forse solo l’enfasi post-2001 sulla sicurezza (in particolare i sistemi di monitoring degli aeroporti o i sistemi di identificazione video) potrebbe fornire la spinta necessaria a trasformare i quantum computer in una realtà industriale e a creare una nuova rivoluzione informatica.


Semantic Web e semantic business
Di Semantic Web si parla dal 1998, e uno dei suoi predicatori è Tim Berners-Lee, l’inventore del Web in persona. Recentemente il World Wide Web Consortium ha adottato due standard che dovrebbero favorire la diffusione del concetto: l’RDF (Resource Description Framework) e l’OWL (Ontology Web Language).
Nella Semantic Web le pagine sono ‘marcate’ da un’informazione descrivente la natura della pagina stessa. Ciò aiuterebbe di molto la ricerca. Per fare un esempio, oggi una ricerca con Google di un musicista dà quasi sempre un elenco sterminato di siti che vendono semplicemente i dischi di quel musicista Non si può dire a Google “dammi tutti i siti che parlano di questo musicista, ma che non siano commerciali”. E nemmeno “cercami il disco di quel musicista che suonava nei Doors e ha fatto un disco solista di cui han parlato bene”.
In un Web semantico ciò si potrebbe fare, ma se l’idea non sembra decollare ci sono varie ragioni. Prima di tutto c’è la resistenza di chi la dovrebbe usare (se vendo dischi e devo catturare il massimo di visitatori, perché mai dovrei dire ai motori di ricerca che il mio sito è solo commerciale?); poi c’è il costo: non è realistico attendersi che milioni di aziende e individui rivedano tutte le proprie pagine. Infine c’è l’immaturità del Web stesso, che è appena nato e collega solo una piccola parte della popolazione mondiale. Insomma, gli annunci che la semantic web sta per esplodere ci lasciano perplessi.
C’è però una startup, Celcorp, che usa logiche semantiche e che sta destando concreto interesse. Il suo prodotto, Celware, analizza le applicazioni business esistenti in un’azienda, le decompone in unità di attività (ovvero, ne costruisce automaticamente l’ “ontologia”), e poi le ricostruisce in funzione di criteri molto utilitaristici, quali l’aumento di produttività. (P.S.)

Piero Scaruffi

Articolo 1 di 5