Condividi

Il computer quantistico di Google e il paradosso del gatto di Schrödinger

I ricercatori di Google hanno eseguito in tre minuti un calcolo che avrebbe richiesto al supercalcolatore Ibm più potente del mondo 10 mila anni di elaborazione: è il segno della supremazia quantistica

Il computer quantistico di Google e il paradosso del gatto di Schrödinger

Benvenuti nell’epoca quantistica

In un articolo del 2012, John Preskill, un fisico teorico, poneva la seguente domanda: “L’evoluzione dei sistemi quantistici su larga scala è semplicemente molto, molto difficile o è ridicolmente difficile?” Sette anni dopo abbiamo la risposta: è molto, molto difficile.

Recentemente è apparso, online, per brevissimo tempo e in modo fortuito, il paper di una ricerca sull’argomento. “Nature”, una rivista scientifica di alto livello, aveva accettato di pubblicare il paper che, però, al momento della temporanea pubblicazione, era ancora riservato.

Il documento ha rivelato che Google ha raggiunto ciò che Preskill ha denominato “supremazia quantistica”. Usando un computer quantistico, i ricercatori del colosso di Internet hanno eseguito in tre minuti un calcolo che avrebbe richiesto a Summit, l’attuale supercomputer IBM più potente del mondo, 10.000 anni di elaborazione.

Una espressione definitiva della supremazia quantistica. C’è comunanza di vedute nel ritenere che questo documento riservato rappresenti davvero una pietra miliare nella storia della tecnologia.

Potrebbe essere uno spartiacque tra due epoche: un “prima”, quando si confidava che i computer quantistici superassero quelli al silicio, e un “dopo”, quando effettivamente ciò è avvenuto. Finora si è parlato molto della seconda epoca. Adesso essa è arrivata

Un bel balzo in avanti

L’esperimento di Google è consistito nell’effettuare il “circuit sampling”. il test verifica se le elaborazioni effettate dalla macchina, partendo da input casuali, possono adattarsi a un modello specifico.

Tale compito piuttosto bizzarro è stato scelto per adeguarsi alle specificità di un computer quantistico, ma anche per comparare la stessa elaborazione su un computer classico.

Un esperimento di poca rilevanza pratica, anche se è diffusa la convinzione che i computer quantistici, nel tempo, potrebbero essere in grado di gestire questioni di importanza pratica e più normali per la vita delle persone comuni.

Queste potrebbero riguardare la progettazione di nuovi farmaci e di nuovi materiali o l’apprendimento automatico. Per di più potrebbero rendere obsoleti i codici crittografici che, oggi, proteggono i segreti del mondo.

Dai bit ai qubit

I computer quantistici impiegano tre concetti. Uno è la “sovrapposizione quantistica”, l’idea, cioè, alla base del famoso gatto vivo e morto di Schrödinger. A differenza dei bit classici, che possono avere solo due stati — uno o zero — , i “qubit” possono essere una combinazione di entrambi.

La macchina di Google, per esempio, ha 53 qubit, che tra loro possono rappresentare quasi dieci milioni di possibili stati sovrapposti.

Il secondo è l’“entanglement”. Esso lega insieme le particelle quantistiche attraverso il tempo e lo spazio. Nei computer standard ogni bit è rigorosamente collegato allo stato del successivo.

I qubit nell’elaborazione quantistica sono fortemente intrecciati. Le operazioni matematiche su qubit sovrapposti e intrecciati possono agire contemporaneamente, in misura maggiore o minore, su tutti i qubit in un unico processo di elaborazione.

Come lavora un computer quantistico

Un calcolo quantistico inizia approcciando i qubit uno ad uno. Per semplificare al massimo si può dire che rende un qubit un uno o uno zero, e poi lo interseca con quello vicino. Fatto ciò, lascia lavorare le regole della fisica quantistica con gli stati e i collegamenti dei qubit che si evolvono nel tempo.

Alla fine (ma non prima, poiché rovinerebbe il calcolo), i qubit vengono esaminati contemporaneamente per ottenere una risposta.

Il lavoro principale consiste nell’individuare la risposta giusta tra un miliardo di quelle errate. È qui che entra in gioco la terza idea, quella contro-intuitiva.

Nella fisica classica, le probabilità devono essere espresse in numeri positivi. Diciamo che c’è una probabilità di pioggia del 30%. La meccanica quantistica usa un concetto correlato, chiamato “ampiezze”. Queste possono essere sia negative che positive.

Bisogna fare in modo che le ampiezze che rappresentano risposte sbagliate si annullino a vicenda, mentre quelle che rappresentano quelle giuste emergano. In questo modo gli sviluppatori possono avvicinarsi con approssimazione accettabile alla soluzione corretta.

In laboratorio è più complesso

Questa è la spiegazione che si trova sui libri di testo. In laboratorio, la faccenda si fa più complicata. Le sovrapposizioni quantistiche e le correlazioni quantistiche sono fenomeni estremamente delicati.

Per esempio il movimento ondulatorio delle molecole adiacenti può interromperli e rendere difficile un calcolo.

La maggior parte dei progetti sviluppati su computer quantistici richiede che le macchine siano conservate a temperature più basse di quelle dello spazio cosmico e che siano alloggiate in locali speciali.

Occorre anche molto personale specializzato per tenere traccia dei processi elaborativi.

Il problema della individuazione degli errori

Tuttavia niente, né l’estrema perizia degli scienziati né le condizioni ideali del laboratorio, possono impedire il verificarsi degli errori.

Il problema più grande che gli scienziati quantistici devono affrontare è quello di individuare e correggere gli errori dell’elaborazione. Come abbiamo detto lo sviluppo di applicazioni pratiche con l’informatica quantistica richiede molta, molta più elaborazione dei dispositivi tradizionali. A questa scala, aumenta molto il rischio di errori.

Questa stato di cose ha spinto le grandi imprese dell’industria del computer, come IBM, Intel e Microsoft, e le menti più brillanti, come Chad Rigetti, a costruire kit di sviluppo sempre migliori e meno fallaci.

Algoritmi efficienti

Parallelamente a questa corsa a costruire macchine migliori, c’è la gara per sviluppare algoritmi quantistici efficienti. Il caso più noto finora è, probabilmente, l’algoritmo di fattorizzazione ideato da Peter Shor nel 1994 nei Laboratori Bell.

Shor ha elaborato un algoritmo matematico con un turbocompressore quantistico che consente una rapida fattorizzazione dei numeri interi nei numeri primi che li compongono.

Qualcosa che spaventa i crittografi, un gruppo di scienziati il cui valore si apprezza in relazione alla difficoltà ad eseguire quello che fa l’algoritmo di Shor.

Ma se i computer quantistici vogliono davvero sfondare, allora sono necessari nuovi algoritmi. Lo sviluppo di tali algoritmi sarà facilitato dal fatto che molte delle applicazioni di pratica utilità (progettazione di farmaci, di materiali e via dicendo) dipendono esse stesse dai processi quantistici.

Questo, infatti, è anche il motivo per cui è stato fino a oggi difficile sviluppare quel tipo di applicazioni.

Pochi dispositivi?

Nonostante le promesse dell’elaborazione quantistica, molti ricercatori sul campo non si sentono a proprio agio in presenza della frase “supremazia quantistica”. Sono a disagio poiché l’avvento della supremazia quantistica implica un punto di non ritorno che, una volta varcato, manda in soffitta decenni di informatica applicata in nome di qualcosa di strano e stupefacente.

E, nonostante il “prima” e il “dopo” che il documento di Google determina, costruire dispositivi quantistici efficienti per avere applicazioni pratiche non sarà un percorso agevole.

la maggior parte della gente pensa che sia un azzardo pronosticare che il calcolo quantistico sostituirà il calcolo di tipo classico. Gli aspetti pratici relativi al funzionamento dei computer quantistici a bassissime temperature ne sono un esempio.

I governi, le grandi aziende e le università più ricche si doteranno, senza dubbio, di proprie macchine. Altri affitteranno il tempo su dispositivi collegati a versioni quantistiche del cloud. In ogni caso il numero totale di computer quantistici sarà limitato.

Ed è bene che sia così. In ogni caso possiamo nutrire un certo scetticismo su questa previsione, guardando agli inizi dell’informatica classica che era una cosa per eletti. Nel 1943 Thomas Watson, allora capo dell’IBM, affermò: “Penso che ci possa essere un mercato mondiale per, forse, cinque computer”. Previsione errata di qualche fattore, forse di un miliardo di fattori.

Dal The Economist del 26 settembre 2019

Commenta