È possibile una descrizione della realtà fisica, solo ed esclusivamente attraverso il principio di località e del realismo locale? Esisteranno davvero delle variabili nascoste, all’interno delle nostre teorie fisico-matematiche, oppure tutto è descrivibile con le regole e i principi standard della meccanica quantistica? Ebbene nel 2015, un importante esperimento sulle disuguaglianze di Bell, sembrerebbe avere almeno in parte risposto alle succitate domande, mettendo la parola fine al realismo locale. È l’anno del trionfo del teorema di Bell e di tutto ciò che al cospetto delle menti più eccelse, aveva già preannunciato con circa mezzo secolo d’anticipo. Nel presente volume vengono presentati tutti gli esperimenti di Bell, compiuti dall’inizio degli anni Settanta fino ad oggi (2018); ma solo i più significativi sono stati descritti nel dettaglio utilizzando il formalismo matematico della meccanica quantistica (tutti gli altri sono stati esposti in forma divulgativa). Fausto Intilla (www.oloscience.com)
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
1.
2. “Nessuna teoria della realtà
compatibile con la teoria dei quanti,
può richiedere che eventi spazialmente
separati siano indipendenti”.
John Stewart Bell
"Gli esseri umani sono bloccati in una
situazione simile a quella di re Mida: non possiamo
sperimentare direttamente la vera trama della realtà,
perché tutto ciò che tocchiamo diventa materia".
Nick Herbert
3. Indice
Prefazione
Capitolo I
Modellando la realtà, immaginando il possibile
1.1. Dal principio di causalità a quello di località
1.2. Dal realismo locale al principio di non località
1.3. Dalla MQ al teorema e le disuguaglianze di Bell
Capitolo II
Modellando la realtà, immaginando l’impossibile
2.1. CHSH e CH74: i primi esperimenti realizzati
2.2. Gli esperimenti di Alain Aspect e colleghi
2.3. L’esperimento di Nicolas Gisin e colleghi
2.4. L’esperimento di Anton Zeilinger e colleghi
2.5. L’esperimento di Jian-Wei Pan e colleghi
2.6. L’esperimento di Mary Rowe e colleghi
2.7. L’esperimento di Simon Gröblacher e colleghi
2.8. L’esperimento di Markus Ansmann e colleghi
2.9. L’esperimento di Marissa Giustina e colleghi
2.10 Gli esperimenti dei gruppi di Hensen, Giustina e Shalm
2.11 L’esperimento di Roman Schmied e colleghi
2.12 L’esperimento di David Kaiser e colleghi
2.13 L’esperimento di Wenjamin Rosenfeld e colleghi
2.14 L’esperimento denominato: Big Bell Test
Conclusioni
Biografie
Bibliografia
4. Prefazione
“Ormai in fisica non c'è più nulla di nuovo da scoprire. Tutto ciò
che rimane da realizzare sono misure sempre più precise”. Lo
disse nel settembre del 1900 Lord Kelvin (davanti all’assemblea
della British Association for the Advancement of Science, a
Bradford, nel Regno Unito), uno dei fisici più eminenti della sua
epoca, quando sembrava che la meccanica di Newton e
l’elettromagnetismo potessero spiegare tutta la realtà fisica. Pochi
anni dopo però, la meccanica quantistica e la relatività
rivoluzionarono le vecchie idee di spazio, tempo ed energia.
Ebbene la storia ovviamente ha smentito in modo eclatante tali
idee, purtroppo condivise anche da molti altri scienziati
dell’epoca di L.Kelvin. Oggigiorno nessuno, tra gli “addetti ai
lavori”, ritiene più che le attuali teorie in ambito scientifico (non
solo nel campo della fisica), siano da considerarsi del tutto
consolidate e quindi in sostanza, definitive ed “intoccabili”.
Tuttavia un teorema, come spesso accade nell’ambito della logica
matematica (quando è implicitamente legata ad una realtà fisica
difficilmente sperimentabile), è riuscito a sopravvivere per oltre
mezzo secolo, confermando solo in questi ultimi anni la sua
importanza, con la stessa forza e solidità con cui nel 1964 (anno
della sua pubblicazione), si impose in ambito accademico
(disturbando il sonno a molti scienziati, filosofi e liberi pensatori,
a partire dalla metà degli anni Sessanta fino ad oggi). Ovviamente
il riferimento è al teorema di John Stewart Bell, che per più di
mezzo secolo (dal 1964 al 2015), ha fatto riflettere e discutere
scienziati di mezzo mondo, su quella che avrebbe dovuto essere
l’effettiva descrizione del mondo fisico, attraverso un modello
teorico di riferimento che non lasciasse più spazio ad alcun
dubbio.
Le domande fondamentali quindi, tra tutti gli studiosi e ricercatori
che per vari decenni si occuparono di tale questione, erano le
seguenti: È possibile una descrizione della realtà fisica, solo ed
esclusivamente attraverso il principio di località e del realismo
locale? Esisteranno davvero delle variabili nascoste, all’interno
5. delle nostre teorie fisico-matematiche, oppure tutto è descrivibile
con le regole e i principi standard della meccanica quantistica? È
possibile che anche il mondo macroscopico, risponda ai principi
della meccanica quantistica, ma che ancora non abbiamo degli
strumenti fisici sufficientemente evoluti per poter osservare tale
fenomeno? Esiste una sottile linea di confine, tra il mondo
dell’infinitamente piccolo e quello macroscopico, dove è
necessario abbandonare l’uno o l’altro modello di riferimento
(fisica classica o meccanica quantistica, per intenderci), per una
descrizione esatta e coerente della realtà?
Ebbene nel 2015, un importante esperimento sulle disuguaglianze
di Bell (riportato nel presente libro; v. sottocapitolo 2.10.- Gli
esperimenti dei gruppi di Hensen, Giustina e Shalm),
sembrerebbe avere almeno in parte risposto alle succitate
domande, mettendo la parola fine al realismo locale. È l’anno del
trionfo della meccanica quantistica, come unico modello di
riferimento per una descrizione della realtà, ampiamente
supportata da una moltitudine di prove sperimentali ormai
ritenute quasi del tutto inoppugnabili. Ma è anche l’anno del
trionfo del teorema di Bell e di tutto ciò che al cospetto delle
menti più eccelse, aveva già preannunciato con circa mezzo
secolo d’anticipo. Nel presente volume vengono presentati tutti
gli esperimenti di Bell, compiuti dall’inizio degli anni Settanta
fino ad oggi (2018); ma solo i più significativi sono stati descritti
nel dettaglio utilizzando il formalismo matematico della
meccanica quantistica (tutti gli altri sono stati esposti in forma
divulgativa). Con la speranza di far appassionare a tale tema il
maggior numero di lettori che avranno scelto quest’opera, sia per
pura curiosità che per un necessario approfondimento di studio
sull’argomento in questione (studenti universitari in primis),
auguro a chiunque sia giunto alle ultime parole di questa breve
prefazione, una buona lettura.
Fausto Intilla
Cadenazzo, 29 settembre 2018
6. MODELLANDO LA REALTÀ,
IMMAGINANDO IL POSSIBILE
“Si può trascorrere una vita intera a costruire
un muro di certezze tra noi e la realtà”.
Chuck Palahniuk
“L’immaginazione è l’unica arma
nella guerra contro la realtà”.
Lewis Carroll
Dal principio di causalità a quello di località
Sia in ambito scientifico che filosofico, il termine “causalità” si
riferisce semplicemente ad una relazione di causa ed effetto. La
causa è ciò che produce l’effetto, mentre la causalità esprime il
rapporto tra una causa e il suo rispettivo effetto. L’idea di questo
rapporto riferito a tutta la realtà, costituisce dunque il principio di
causalità. Secondo tale principio tutti i fenomeni debbono avere
una causa. Per Spinoza era evidente che “da una causa ben
determinata, deve necessariamente risultare un effetto; e,
inversamente, se non vi è alcuna causa ben determinata, è
impossibile che si produca un effetto”. Secondo Kant invece, la
“legge della causalità” indicava semplicemente che: “Tutti i
cambiamenti avvengono, secondo la legge di connessione tra
causa ed effetto”. Dopo Kant, agli inizi del XIX secolo, la
causalità si colloca nell’ambito della razionalità pura; dove risulta
inscindibile dal concetto di deducibilità. Ovvero, la causalità
permette la deduzione dell’effetto (previsione ottenuta dal
riconoscimento del nesso causale); creando dunque un assioma
fondamentale per il metodo e la conoscenza scientifica dell’era
moderna. Oggigiorno nel campo della fisica, il principio di
7. causalità afferma che se un fenomeno (definito causa) produce un
altro fenomeno (definito effetto), allora la causa precede l’effetto
(ordine temporale). Il principio di causalità è uno dei limiti
realistici imposti a qualsiasi teoria matematica coerente, affinché
possa essere considerata fisicamente ammissibile.
Il principio di causalità è stato per molto tempo strettamente
associato alla questione del determinismo; secondo cui alle stesse
condizioni iniziali, le stesse cause producono gli stessi effetti.
Tuttavia, tenendo conto di fenomeni di natura intrinsecamente
statistica (come il decadimento radioattivo di un atomo o la
misurazione in meccanica quantistica), esso nel corso del XX
secolo se ne è distanziato considerevolmente. Oggi il principio di
causalità, assume delle forme abbastanza diverse, in base ai rami
della fisica che vengono considerati (in cui esso si ritrova ad
operare).
Il principio di causalità (inteso come ordine temporale della
causalità), venne formulato in modo chiaro ed esplicito da Eulero
e Jean Le Rond d’Alembert, ma era già stato compreso molto
tempo prima da Descartes1
ed utilizzato implicitamente da Isaac
Newton.
Tutta la fisica classica fonda le sue radici sul principio di
causalità; secondo cui qualsiasi effetto è interamente determinato
da delle azioni anteriori. L’effetto è il cambiamento di stato del
sistema fisico studiato, dovuto alle cause (quelle identificabili) e
alle forze che si esercitano sul sistema (sia per contatto come
1
Storicamente, la formulazione moderna del principio di causalità è
stata ispirata dalla filosofia meccanicistica di René Descartes, che ha
cominciato ad approcciarla nel “Discorso sul metodo” (1637), per poi
svilupparla maggiormente in “Meditazioni metafisiche” (1641).
Descartes si chiede, tra le altre cose, se la causa debba precedere nel
tempo il suo effetto. Egli risponde: “(…) propriamente parlando, non
ha il nome o la natura di causa efficiente fin quando essa non produce
il suo effetto; e quindi non lo è prima”. (Descartes, Meditazioni
metafisiche). La causa efficiente è un insieme di condizioni, di cui è
necessario e sufficiente che esse siano presenti nel momento in cui
l'effetto si manifesta.
8. shock e attrito, sia a distanza come la gravitazione o la forza
elettromagnetica) o agli eventi che producono queste forze.
Isaac Newton, scrivendo che esiste una proporzionalità tra la
forza motrice (la causa) e i cambiamenti di movimento (l'effetto),
ha reso lo studio della causalità uno studio quantitativo che sta
alla base della fisica classica. Il problema della possibile
differenza di natura tra la causa e l'effetto è quindi ridotto alla
questione dell'ordine temporale tra gli stati dell'intero sistema
studiato, poiché tali stati possono essere considerati come cause
ed effetti gli uni degli altri. La previsione deterministica degli stati
futuri dalla conoscenza di quelli del passato sembra essere
associata in modo “naturale” al principio di causalità nella fisica
classica; ma ciò sarebbe come dimenticare che nella pratica
sperimentale nessun dato è perfettamente noto e che nella teoria,
la complessità matematica inizia non appena vi è la presenza di
soli tre corpi. Ed inoltre, sarebbe come dimenticare che la teoria
del caos, è nata proprio dallo stesso determinismo.
Un corpo macroscopico è un corpo composto da un enorme
numero di particelle (atomi o molecole). Se questa materia viene
trattata dalla fisica classica o relativistica, allora, per ipotesi, la
causalità si applicherebbe anche pienamente a ciascun corpo
microscopico che compone il tutto, specialmente per quanto
riguarda le loro influenze reciproche; tuttavia, la sua
manifestazione è singolarmente diversa dal caso dei sistemi più
semplici. Il gran numero di componenti distinti (ovvero di gradi
di libertà) del corpo macroscopico renderebbe irrealizzabile, in
pratica, la determinazione delle equazioni del moto con i metodi
della fisica classica. Mentre la completa determinazione dello
stato iniziale del sistema, sarebbe irraggiungibile. In tale contesto,
le leggi del corpo macroscopico vengono quindi scritte
utilizzando delle statistiche: se il sistema è "stabile", qualsiasi
cambiamento di “bassa portata” lo rimuove solo
momentaneamente da uno stato di equilibrio e dunque, lo stato
globale del sistema è determinato, con una probabilità molto
forte, dall’immediata vicinanza di questo “stato medio”.
9. Per tutti i corpi microscopici che si riuniscono per comporre un
corpo macroscopico, lo stato è determinabile solo a livello
statistico: vi è lo stato medio degli stati di questi corpi e vi sono
inoltre altri stati possibili con delle probabilità associate; ma è
impossibile determinare il loro stato “attimo dopo attimo”, con la
consueta precisione della fisica classica.
Tutte le perturbazioni/informazioni che vanno ad interessare un
corpo macroscopico nella sua interezza, vengono disperse dagli
scambi incessanti tra i componenti microscopici e in base alle
leggi della statistica. Uno stato (medio o transitorio) di un corpo
macroscopico, o il particolare stato di uno dei suoi componenti
microscopici, emerge dunque da una causa non precisabile,
indefinibile; per tale motivo è impossibile determinarlo con
precisione assoluta, partendo dallo stato precedente (anche da un
punto di vista teorico non è possibile risalire allo stato iniziale).
Inoltre, l'impossibilità di predire lo stato esatto, ma solo lo stato
statistico, del corpo macroscopico o di un corpo microscopico, ci
fa talvolta parlare di indeterminismo.
Poiché il principio di causalità è applicabile praticamente in ogni
contesto, verso la fine del XIX secolo Henri Poincaré dimostrò
che anche dei semplici sistemi trattabili con la fisica classica
possono essere molto sensibili alle variazioni delle condizioni
iniziali: una piccolissima modifica può, per alcuni sistemi molto
semplici, portare ad un’evoluzione successiva molto diversa dal
sistema iniziale. Quindi, poiché è impossibile conoscere con
assoluta precisione le condizioni iniziali di un sistema e poiché è
impossibile conoscere le esatte misurazioni di qualsiasi causa
influente (poiché anche la fisica classica è una scienza
sperimentale), tutto il rigore possibile non permette di prevedere
sempre lo stato futuro di un sistema.
Il determinismo dice che alle stesse condizioni iniziali, le stesse
cause producono gli stessi effetti. In pratica, questo "alle stesse
condizioni iniziali" pone un problema di realizzazione, poiché le
condizioni iniziali del sistema non possono essere conosciute con
assoluta precisione. Se si ripete per la seconda volta quello che
10. sembrerebbe essere lo stesso esperimento, si riscontrerà
sicuramente qualche differenza con l’esperimento di partenza.
Tuttavia, molti sistemi studiati sono "stabili"; vale a dire che
piccole variazioni iniziali portano solo a piccole variazioni
sull'evoluzione del sistema.
Questa breve nota introduttiva sul concetto di causalità, ha come
unico scopo quello di farci riflettere su come l’essere umano
percepisce ed interpreta la realtà apparente del mondo
osservabile; sia essa a noi circostante oppure lontana milioni di
anni luce. Ed è proprio questa esperienza percettiva collettiva, che
ha indirizzato la nostra evoluzione biologica verso una maggiore
intelligenza di specie e la nostra evoluzione culturale verso una
conoscenza sempre più profonda dei meccanismi della natura.
Ma forse nulla è come appare e noi non siamo nient’altro che
degli ingranaggi di un meccanismo senza confini di cui non
riusciremo mai a coglierne l’effettiva interezza e complessità;
proprio perché ogni nostra singola azione, ogni nostro pensiero,
contribuisce alla creazione continua di questa entità infinita in
continua espansione (che taluni chiamano Universo). Nel 1938,
in “La pensée et le mouvant” (trad. it. “Pensiero e movimento”,
Bompiani, Milano), Henri Bergson scriveva: “Se il movimento è
una serie di posizioni e il mutamento una serie di stati, il tempo è
fatto di parti distinte e giustapposte. Senza dubbio diciamo
ancora che esse si succedono, ma questa successione potrebbe
essere assimilabile a quella delle immagini di una pellicola
cinematografica: il film potrebbe svolgersi dieci, cento, mille
volte più veloce senza che niente di ciò che svolge venga
modificato; se andasse infinitamente veloce, se lo svolgimento
(questa volta fuori dall’apparecchio) divenisse istantaneo, si
vedrebbero sempre le stesse immagini. La successione così intesa
non aggiunge dunque niente; sottrae piuttosto qualcosa, segnala
una mancanza, traduce una infermità della nostra percezione,
condannata a frammentare il film immagine per immagine al
posto di coglierlo globalmente. In breve, il tempo così ravvisato
non è che uno spazio ideale in cui si suppongono allineati tutti gli
11. eventi trascorsi, presenti e futuri, ai quali si impedisce di
apparire unitamente (…)”. Penso che anche Einstein, come molti
altri eminenti fisici del suo tempo (nonché attuali), fosse
pienamente d’accordo con questa visione della realtà, visto che
un giorno ebbe a dire: “La distinzione fra passato, presente e
futuro è solo un’illusione, anche se ostinata”.
È dunque qui che sta il nocciolo della questione. Il passo tra il
principio di causalità e quello di località, non può far altro che
apparirci breve, logico e scontato; ma è proprio qui che “casca
l’asino”. Noi possiamo analizzare solo dei piccoli frammenti di
una realtà senza confini; e nel fare ciò possiamo fidarci solo delle
nostre limitate capacità sensoriali e percettive. Dobbiamo
accettare l’idea che possano esserci delle cause che non potremo
mai conoscere, ma che tuttavia conducono a degli effetti/eventi
pienamente osservabili. Il riferimento non è a delle ipotetiche
“variabili nascoste”, ma semplicemente ad una quantità infinita di
informazione che non può essere analizzata, elaborata e compresa
neppure da un’entità che disponesse di un’intelligenza illimitata.
Solo l’Universo può comprendere sé stesso.
Il principio di località afferma che: “Oggetti distanti non possono
avere influenza istantanea l'uno sull'altro: un oggetto è
influenzato direttamente solo dalle sue immediate vicinanze”.2
2
Una teoria che includa il principio di località in genere viene definita
come una “teoria locale”. Si tratta di un’alternativa al vecchio concetto
di “azione a distanza istantanea”. La località si è evoluta fuori dalle
teorie di campo della fisica classica. Il concetto è che per avere
un’azione, causata dall’influenza di un punto A verso un punto B (o
viceversa), qualcosa nello spazio tra quei due punti (ad esempio un
campo) deve mediare l’azione. Per esercitare un'influenza, qualcosa,
come un'onda o una particella, deve viaggiare attraverso lo spazio tra i
due punti, “trasportando” appunto tale influenza. La teoria della
relatività speciale limita la velocità con cui tutte queste influenze
possono viaggiare, a quella della luce (c). Dunque, il principio di
località implica che un evento in un punto non può causare un risultato
simultaneo in un altro punto. Un evento al punto A non può causare un
12. Anche qui, ad entrare in gioco è sempre il concetto di tempo. Ma
se il tempo, come sosteneva anche Einstein, è solo un’illusione,
allora perché continuiamo ostinatamente a chiamarlo in causa? La
risposta è semplice: perché ci fa comodo così. Ed è stato un bene
che sia stato così, specialmente negli ultimi tre secoli; altrimenti
non avremmo potuto raggiungere i traguardi scientifici e
tecnologici che oggi ci consentono di scambiare messaggi alla
velocità della luce, di pilotare un aereo mediante le onde
cerebrali3
o di esplorare lo spazio fino ai confini del sistema
solare.
Il fatto che vi siano dei limiti (teorici, pratici e concettuali) che
non potremo mai superare, è solo un bene; altrimenti
smetteremmo di fare scienza, poiché tutto sarebbe già dato! Tutto
ciò che abbiamo finora raggiunto, scoperto, ideato, “capito”,
dobbiamo solo avere la modestia di definirlo aggiungendo una
semplice parolina al suo fianco: “apparente”. Avremmo così il
principio di causalità apparente, il principio di località (…e di non
località!) apparente, la Relatività Ristretta (…e Generale!)
apparente, il principio di Mach apparente e via di seguito.
Tutto ciò potrà sembrarvi folle, ma purtroppo (o per ben che si
voglia) è del tutto coerente con i più alti livelli oggi raggiunti dalla
fisica sperimentale; specialmente in ambito quantistico. Avrete
modo di scoprire esattamente di cosa sto parlando, verso la fine
di questo libro. Posso solo anticiparvi che nell’anno 2015, si sono
aperte le porte ad un nuovo paradigma scientifico, che forse la
risultato al punto B, in un tempo inferiore a t = D/c (dove “D” è la
distanza tra i due punti e “c” è la velocità della luce).
3
Nel 2014 gli scienziati del Technische Universität München (TUM) e
del TU Berlin hanno dimostrato che i comandi di un velivolo possono
essere eseguiti solo mediante le onde cerebrali, senza toccare joystick,
manetta e pedali. I test, effettuati con un simulatore di volo, sono stati
eseguiti con successo da sette persone, una della quali non aveva mai
pilotato un aereo. Il progetto Brainflight, finanziato dall’Unione
Europea e sviluppato dalle due università tedesche, ha permesso di
studiare nuovi metodi per il “volo controllato dal cervello”.
13. mente umana non riuscirà mai ad accettare pienamente,
accantonando per sempre ogni dubbio.
Dal realismo locale al principio di non località
Con il termine realismo in fisica si indica l’idea che la natura non
è in alcun modo legata o vincolata dalla mente umana; ovvero che
la sua esistenza non dipenda dal pensiero umano. Detto in altre
parole, entrando per qualche istante nel campo della meccanica
quantistica: anche se il risultato di una possibile misurazione non
esiste prima dell'atto stesso della misurazione, ciò non significa
che sia una creazione della mente dell'osservatore.
Una proprietà indipendente dalla mente non deve essere un valore
di una variabile fisica (come ad esempio la posizione o la quantità
di moto). Una proprietà può essere potenziale (cioè può essere
una capacità): ad esempio un oggetto di vetro ha il potenziale (o
la capacità) di rompersi, se sottoposto a una particolare forza; ma
se ciò non accade (ovvero se l’oggetto in questione non viene
sottoposto a tale forza), esso sicuramente non si romperà. Anche
se il risultato di colpire un oggetto di vetro con un martello non
esiste prima dell'atto di colpirlo, ciò non significa che il vetro
rotto sia una creazione dell'osservatore.
Pensiamo ora ad un acceleratore di particelle come ad un
sofisticato tipo di “martello”; in tale contesto fisico si possono per
analogia identificare i “frammenti” delle particelle bersaglio, al
termine del processo di scontro con le particelle “proiettile”, come
i cocci di vetro dell’oggetto precedentemente considerato.
Tale risposta, cioè la rottura, è una risposta condizionale; ovvero
una risposta a una particolare applicazione della forza.
Applicando tale concetto ai sistemi quantistici, Schrödinger ha
riconosciuto che anche loro hanno una risposta condizionale;
ovvero una tendenza a rispondere (considerabile anche come una
specifica probabilità di risposta) a una particolare forza di
misurazione, con un valore particolare. In un certo senso, essi
sono pre-programmati con un risultato particolare.
14. Un tale risultato sarebbe realistico in senso metafisico, senza
essere realistico nel senso fisico del realismo locale (che richiede
che un singolo valore sia prodotto con certezza). Un concetto
correlato è la "determinatezza controfattuale"; ovvero l'idea che
sia possibile descrivere in modo significativo come ben definito,
il risultato di una misurazione che, di fatto, non è stata eseguita
(cioè la capacità di assumere l'esistenza di oggetti e assegnare
valori alle loro proprietà, anche quando non sono stati misurati).
In genere la definizione più comune di realismo locale è la
seguente: esso è la combinazione del principio di località con
l'assunto “realistico” che tutti gli oggetti debbano
oggettivamente possedere dei valori preesistenti per ogni
possibile misurazione, prima che tali misurazioni vengano
effettuate. Il realismo locale è una caratteristica di rilievo
della meccanica classica, della Relatività Generale e della teoria
di Maxwell, ma la meccanica quantistica rifiuta largamente
questo principio a causa della presenza di entanglement
quantistici (per la maggior parte chiaramente dimostrati
dal paradosso EPR e quantificati dalle disuguaglianze di Bell).
Qualsiasi teoria, come la meccanica quantistica, che vìoli le
diseguaglianze di Bell, deve rinunciare al realismo locale o alla
determinatezza controfattuale.4
L'affidabilità dei valori controfattualmente definiti è un'ipotesi di
base che, insieme all’ "asimmetria temporale" e alla "causalità
locale" ha portato alle disuguaglianze di Bell. Bell ha dimostrato
che i risultati degli esperimenti intesi a testare l'idea di variabili
nascoste sarebbero previsti entro certi limiti basati su tutte e tre
4
Nella maggior parte delle interpretazioni convenzionali (quale quella
di Copenaghen e quella basata sulle storie consistenti) in cui si assume
che la funzione d'onda non abbia un'interpretazione fisica diretta, è il
realismo ad essere rifiutato. Le reali proprietà definite di un sistema
fisico quantistico "non esistono" prima della misura e la funzione
d'onda viene interpretata come niente altro che uno strumento
matematico utilizzato per calcolare le probabilità dei risultati
sperimentali.
15. queste ipotesi (che sono considerate principi fondamentali per la
fisica classica), ma che i risultati trovati entro questi limiti
sarebbero incoerenti con le previsioni della teoria della meccanica
quantistica5
. Gli esperimenti hanno dimostrato che i risultati della
meccanica quantistica superano in modo prevedibile i limiti
5
Nel 1964 John Bell dimostrò con il suo teorema che se esistessero
variabili nascoste che rendessero la teoria locale, alcune configurazioni
dovrebbero soddisfare determinate relazioni non previste dalla
meccanica quantistica. Alcuni fisici, come Alain Aspect e Paul Kwiat,
hanno condotto sperimentazioni che hanno registrato violazioni delle
disuguaglianze di Bell su 242 deviazioni standard, conseguendo
un'eccellente certezza scientifica. Ciò depone a favore della meccanica
quantistica nella sua interpretazione classica, escludendo teorie a
variabili nascoste locali (rimane aperta la possibile esistenza di quelle
non locali). Una teoria delle variabili nascoste che volesse mantenere
coerenza con la meccanica quantistica dovrebbe possedere
caratteristiche non-locali, permettendo l'esistenza di relazioni di causa
istantanee, o comunque più veloci della luce, tra entità fisiche separate.
Sulla scia dell'idea di de Broglie dell'onda pilota, nacque nel 1952, a
opera del fisico David Bohm, un'interpretazione della meccanica
quantistica che ancora oggi è considerata la teoria a variabili nascoste
meglio formulata. Basandosi sull'idea originaria di de Broglie, Bohm
ha teorizzato di associare a ciascuna particella, ad esempio un elettrone,
un'onda guida che governi il suo moto. Grazie a tale assunto gli elettroni
hanno un comportamento sufficientemente chiaro: quando si conduce
il celebre esperimento della doppia fenditura, essi passano attraverso
una fenditura piuttosto che un'altra e la loro scelta non è probabilistica,
ma predeterminata, mentre l'onda associata attraversa entrambe le
fenditure generando la figura di interferenza. Tale prospettiva
contraddice l'idea di eventi locali che è utilizzata sia nella teoria
atomica classica che nella teoria della relatività. I conflitti con la teoria
della relatività, non solo in termini di non-località, ma soprattutto per
quanto riguarda l'invarianza di Lorentz, sono considerati dai sostenitori
della "convenzionale" fisica quantistica come la principale debolezza
della teoria di Bohm. Secondo i critici essa sembrerebbe scaturire da
una forzatura, ovverosia sarebbe stata deliberatamente strutturata per
fare previsioni che sono in ogni dettaglio uguali a quelle della
meccanica quantistica.
16. classici. Il calcolo delle aspettative basato sul lavoro di Bell
implica che per la fisica quantistica l'assunzione del "realismo
locale" debba essere abbandonata. Nella derivazione di Bell si
assume esplicitamente che ogni misura possibile, anche se non
eseguita, possa essere inclusa nei calcoli statistici. Il calcolo
implica la mediazione di insiemi di risultati che non possono
essere tutti contemporaneamente concreti; se alcuni sono
considerati risultati concreti di un esperimento altri devono essere
considerati controfattuali. Quelli che sono definiti come fattuali
sono determinati dallo sperimentatore; in tal modo i risultati delle
misurazioni effettivamente eseguite diventano reali in virtù della
sua scelta di farlo, i risultati delle misurazioni che non esegue
sono controfattuali. Il teorema di Bell dimostra che ogni tipo di
teoria quantistica deve necessariamente violare la località o
rifiutare la possibilità di misurazioni affidabili del tipo
controfattuale e definito. La determinatezza controfattuale è
presente in ogni interpretazione della meccanica quantistica che
considera le misurazioni quantomeccaniche come descrizioni
oggettive dello stato di un sistema (o dello stato del sistema
combinato e dell'apparato di misurazione), ma che non tiene
conto del fatto che non tutte le descrizioni oggettive del genere
possono essere rivelate simultaneamente dalle misurazioni.
L'interpretazione transazionale di Cramer (1986) è un esempio di
tale interpretazione.
Nel 1935 Albert Einstein, Boris Podolsky e Nathan Rosen, nel
loro paradosso EPR (l’acronimo è composto dalle iniziali dei loro
cognomi), teorizzarono che la meccanica quantistica poteva non
essere una teoria locale (ipotizzando erroneamente che il
formalismo quantistico fosse incompleto, poiché non era in grado
di spiegare tutti gli elementi della realtà fisica), poiché una
misurazione fatta su una coppia di particelle separate ma correlate
(entangled) tra loro, causa un effetto simultaneo; ovvero: il
collasso della funzione d'onda nella particella entangled misurata
successivamente (un effetto che supera la velocità della luce). Mi
spiego meglio con un esempio: in una coppia di particelle
17. entangled (A;B), se lo sperimentatore misura lo spin della
particella A e rileva spin up, istantaneamente, in qualsiasi altra
parte dell’universo si trovi l’altra particella B (anche lontana
milioni di anni-luce dalla sua “gemella” A), la sua funzione
d’onda collassa e assume spin down; mentre prima
dell’osservazione della particella A, il suo spin si trovava in uno
stato di totale indeterminazione.
Se si accettava la teoria dei quanti della meccanica quantistica, si
doveva accettare il paradosso EPR e quindi anche un principio di
non-località6
; ossia il fatto incontrovertibile che l’entanglement,
la “relazione” tra le particelle quantistiche, si mantiene a
prescindere dalla distanza nello spazio e al di là della limitazione
relativistica della velocità della luce.
Siccome il principio di indeterminazione di Heisenberg, limita la
precisione delle misurazioni inerenti a posizione e quantità di
moto delle particelle, nel 1951, David Bohm propose di
abbandonare questi parametri per lo studio dell’entanglement e di
sostituirli con dei valori facilmente misurabili; come ad esempio
lo spin. Fu nel 1964 che John Stewart Bell usò questa idea e
formulò una disuguaglianza. Il suo grande punto d’interesse sta
6
Alcuni fisici furono convinti delle argomentazioni (ancora
tendenzialmente a favore di un realismo locale) di Einstein, Podolsky e
Rosen e cercarono di elaborare delle teorie per completare la meccanica
quantistica con l’introduzione di un livello sottostante di descrizione
(teoria dell’onda pilota di Louis De Broglie, teorie con variabili
nascoste di David Bohm, etc.). Tuttavia, la grande maggioranza dei
fisici seguì la tesi di Bohr, secondo la quale non è possibile considerare
una realtà fisica indipendente (separata) dallo strumento di misurazione
(un concetto fondamentale strettamente legato al principio di non
località). La loro fiducia nella tesi di Bohr, era rinforzata dal teorema di
von Neumann, enunciato nel 1932 nel libro in cui erano poste le basi
matematiche della meccanica quantistica. In questo libro von Neumann
aveva affrontato il problema della interpretazione del carattere statistico
delle predizioni quantistiche nei termini delle variabili nascoste e aveva
dimostrato l’incompatibilità delle proprietà matematiche del
formalismo quantistico con l’esistenza di un formalismo sottostante nel
quale intervenissero delle variabili nascoste.
18. nel fatto che "la fisica quantistica prevede che questa
disuguaglianza possa essere violata in determinate condizioni
sperimentali, mentre secondo la fisica classica deve verificarsi
sempre". Esistono diverse varianti della disuguaglianza di Bell,
che portano a esperimenti diversi.
Il primo esperimento che indicava una violazione della
disuguaglianza di Bell fu condotto da John Clauser e Stuart
Freedman nel 1972, ma la sua accuratezza era insufficiente
perché potesse essere decisivo. È Alain Aspect a proporre nel
1975 un esperimento sufficientemente rigoroso per essere
considerato irrefutabile.
Dalla MQ al teorema e le disuguaglianze di Bell
La meccanica quantistica è stata formulata nelle sue versioni
moderne nel 1925-1926 da Erwin Schrödinger da una parte
(meccanica ondulatoria) e da Werner Heisenberg, Pascual Jordan
e Max Born dall’altra (meccanica delle matrici). Dopo che fu
dimostrata l’equivalenza fra queste due formulazioni, dapprima
dallo stesso Schrödinger e poi da John von Neumann, il
formalismo non poneva più problemi, anche se la sua
interpretazione avrebbe continuato a sollevare discussioni senza
fine.
Il punto più controverso era il carattere probabilistico delle
predizioni della teoria quantistica messo in luce da M. Born già
nel 1926. Questa natura fondamentalmente statistica delle
predizioni quantistiche aveva turbato numerosi fisici; tra i quali
Louis de Broglie e Albert Einstein. Per quest’ultimo, una teoria
fondamentale doveva essere capace di predire con certezza il
comportamento di un sistema il cui stato iniziale fosse
determinato. Per Einstein dunque, una teoria fondamentale non
poteva essere di natura probabilistica; poiché secondo lui in tal
caso essa avrebbe indicato l’esistenza di un livello sottostante che
a sua volta avrebbe permesso una descrizione più dettagliata del
mondo fisico. Con la celebre frase “Dio non gioca a dadi”, egli
19. espresse quindi il suo dissenso nei confronti della meccanica
quantistica e della sua natura prevalentemente statistica.
Secondo l’“Interpretazione di Copenaghen”, della quale Niels
Bohr fu il massimo esponente, la meccanica quantistica esprime
invece in forma probabilistica, la descrizione fisica più completa
che si possa concepire e ottenere in termini matematici.
L’impossibilità di andare oltre i limiti imposti dalla MQ, è dovuta
alla quantizzazione di certe quantità che non possono assumere
valori arbitrariamente piccoli. La validità di questa posizione è
assicurata dall’esistenza delle relazioni di indeterminazione di
Heisenberg (principio d’indeterminazione), sulle quali Einstein
concentrò i suoi primi attacchi, cercando di contraddirle con
diverse teorie concettuali compatibili con le leggi fondamentali
della fisica, ma che andavano ben oltre le possibilità di verifica
sperimentale con le tecnologie di quell’epoca7
.
Nel 1935 Einstein e i suoi collaboratori Boris Podolsky e Nathan
Rosen, pubblicarono sulla rivista “Physical Review” il celebre
articolo (in seguito spesso chiamato “paradosso EPR”) in cui si
dimostrava l’incompletezza della MQ basandosi sulle predizioni
che essa stessa formulava. La MQ predice una correlazione molto
stretta fra le misure di polarizzazione di due fotoni e lontani
ma emessi da una sorgente comune che li ha prodotti in uno stato
di polarizzazione definito dalla seguente formula:
| ( , )⟩ =
√
(| , ⟩ + | , ⟩)
Nella quale | , ⟩ rappresenta una coppia di fotoni polarizzati
secondo l’asse Ox , perpendicolare alla direzione di propagazione
e | , ⟩ rappresenta una coppia di fotoni polarizzati secondo
7
Su questa prima fase della discussione si devono ricordare i congressi
di Solvay del 1927 e del 1930, nel corso dei quali Bohr riuscì facilmente
a superare le argomentazioni di Einstein. Sembra che alla fine di queste
discussioni Einstein si sia convinto che la teoria quantistica fosse
corretta, pur continuando a pensare che fosse incompleta.
20. l’asse Oy perpendicolare a Ox e alla direzione di propagazione.
La MQ prevede una correlazione totale tra le polarizzazioni dei
due fotoni appartenenti a un tale stato, detto “stato EPR”.
Per esempio per direzioni di misura parallele, un risultato +1 per
implica con sicurezza un risultato +1 per (e similmente, se
si ottiene -1 per , con certezza si otterrà -1 per ). Ma secondo
Einstein la misurazione sul fotone non dovrebbe essere
influenzata dalla misurazione su , poiché il principio di
causalità relativistico impedisce a un’interazione di propagarsi ad
una velocità superiore a quella della luce. Per tale motivo il fotone
secondo Einstein doveva possedere una proprietà in grado di
determinare il risultato +1 o -1, prima di eseguire la misurazione;
definendo insieme a Rosen e Podolsky tale proprietà, un
“elemento di realtà fisica”.
Ora, secondo il formalismo quantistico, che non attribuisce
alcuna proprietà di questo tipo a , tutte le coppie sono identiche
ancorché nel 50% dei casi si ottenga +1 e nel 50% degli altri casi
si ottenga -1. Per Einstein e i suoi collaboratori, tale formalismo
quantistico risultava quindi incompleto; poiché esso non era in
grado di spiegare tutti gli elementi della realtà fisica.
Bohr, dal canto suo, per sostenere invece le sue ragioni, dovette
ricorrere ad un ragionamento alquanto sofisticato alla base del
quale occorreva porre le seguenti ipotesi:
1) Le predizioni della meccanica quantistica sono giuste;
2) Nessuna interazione può propagarsi con una velocità
superiore a quella della luce (causalità relativistica);
3) Quando due oggetti sono molto lontani l’uno dall’altro, è
possibile parlare separatamente degli elementi della realtà
fisica di ciascuno di essi.
Per Bohr la terza ipotesi era più importante delle prime due,
poiché conduceva alla conclusione che non è possibile parlare in
astratto degli elementi di realtà fisica di un sistema. Ogni
esperimento di fisica comporta un sistema da studiare e un
21. apparecchio di misurazione, ed è soltanto precisando l’insieme
dei due che si può parlare di realtà fisica.
Il primo contributo di Bell ai fondamenti concettuali della MQ fu
la dimostrazione, nel 1964, dell’inesattezza del teorema di von
Neumann. Egli osservò innanzitutto che l’esistenza di teorie con
variabili nascoste come quella di Bohm rappresentava un
controesempio al teorema. Inoltre egli identificò un’ipotesi
apparentemente ovvia, seppure non verificata, che minava tutta la
dimostrazione. A questo punto egli era pronto a riprendere il
programma di Einsten, Podolsky e Rosen; ed è ciò che
effettivamente fece nel 1966, in un secondo celebre articolo.
In questo articolo, Bell estende l’argomento di Einstein, Podolsky
e Rosen esaminando le possibili conseguenze della conclusione
secondo cui la meccanica quantistica sarebbe incompleta. Egli
completò quindi la teoria introducendo delle “variabili nascoste”
per interpretare le correlazioni di Einstein, Podolsky e Rosen. Si
tratta di proprietà suscettibili di variare da una coppia (ad esempio
di fotoni) all’altra, ma comuni ai due membri di una stessa coppia.
I risultati delle misure di polarizzazione dipendono da questa
proprietà comune; cosicché si capisce che le misurazioni
effettuate sui due membri di una stessa coppia, possono essere
correlate. Bell impose inoltre al suo formalismo una condizione
di località strettamente legata alle ipotesi 2 e 3 precedentemente
elencate (ipotesi di Bohr). Fatto ciò, dimostrò che una tale teoria
(teoria separabile con variabili nascoste) è in conflitto con la
meccanica quantistica. Il grande punto di forza del ragionamento
di Bell, sta nella sua generalità. Esso non è ristretto a una teoria
particolare con variabili nascoste, ma si applica a tutte le teorie
separabili con variabili nascoste le cui predizioni soddisfino certe
disuguaglianze (da cui il nome: disuguaglianze di Bell), mentre le
predizioni della meccanica quantistica le violano.
Con il teorema di Bell dunque, viene stabilito un nuovo punto
fermo difficilmente confutabile secondo il quale: se la posizione
di Einstein è corretta, le correlazioni di Einstein, Podolsky e
Rosen violano le predizioni quantistiche.
22. Una linea di indagine nella “preistoria” del teorema di Bell8
riguardava la congettura secondo la quale lo stato
quantomeccanico di un sistema deve essere integrato da ulteriori
“elementi di realtà” o “variabili nascoste” o “stati completi”, al
fine di fornire una descrizione completa. L’incompletezza dello
stato quantistico è la spiegazione del carattere statistico delle
previsioni quantomeccaniche relative al sistema.
In realtà ci sono due principali categorie di teorie delle variabili
nascoste. Nella prima categoria, che è solitamente definita “non
contestuale”, lo stato completo del sistema determina il valore di
una quantità (il che equivale ad un autovalore dell’operatore che
rappresenta quella quantità) che sarà ottenuta con qualsiasi
procedura di misurazione standard di quella quantità,
indipendentemente da quali altre quantità vengono misurate
simultaneamente o da quale potrebbe essere lo stato completo del
sistema e dell’apparato di misurazione. Le teorie delle variabili
nascoste di Kochen e Specker (1967), sono esplicitamente di
questo tipo. Nella seconda categoria, definita in genere
“contestuale”, il valore ottenuto dipende da quali quantità
vengono misurate simultaneamente e/o dai dettagli dello stato
completo dell'apparecchio di misurazione.
Questa distinzione venne per la prima volta indicata da Bell nel
1966; ma senza usare i termini "contestuale" e "non contestuale".
Esistono in realtà due versioni abbastanza diverse delle teorie
delle variabili nascoste contestuali, a seconda del carattere del
contesto: un "contesto algebrico" è quello che specifica le
quantità (o gli operatori che le rappresentano) che sono misurate
congiuntamente con la quantità (o operatore) di interesse
primario; mentre un "contesto ambientale" è una specificazione
delle caratteristiche fisiche dell'apparato di misurazione, in cui
esso misura simultaneamente diverse quantità distinte co-
8
Una nota importante: in questo sotto-capitolo, d’ora in avanti, quasi
tutte le informazioni inerenti al teorema di Bell sono state tratte
dall’articolo di Abner Shimony (Bell’s Theorem), presente sul web
nella Stanford Encyclopedia of Philosophy (riproduzione autorizzata).
23. misurabili. Nella teoria delle variabili nascoste di Bohm (1952) il
contesto è ambientale, mentre in quelle di Bell (1966) e Gudder
(1970) il contesto è algebrico. Una versione pionieristica di una
"teoria a variabili nascoste" fu proposta da Louis de Broglie nel
1927; mentre una versione più completa fu proposta da David
Bohm nel 1952. In queste teorie l'entità che completa lo stato
quantistico (che è una funzione d'onda nella rappresentazione di
posizione) è tipicamente un'entità classica, situata in uno spazio
di fase classico e quindi caratterizzata da entrambe le variabili di
posizione e di impulso. La dinamica classica di questa entità è
modificata da un contributo della funzione d'onda:
(1) ψ(x, t ) = R(x, t )exp[iS(x, t )/ℏ],
la cui evoluzione temporale è governata dall'equazione di
Schrödinger. Sia de Broglie che Bohm affermano che la velocità
della particella soddisfa l’"equazione guida" (in riferimento alla
teoria dell’onda pilota):
(2) v = grad(S/m),
per cui la funzione d'onda ψ agisce sulle particelle come "un'onda
guida". De Broglie (1928) e la scuola di "Meccanica Bohmiana"
(in particolare Dürr, Goldstein e Zanghì, 1992) postulano
l'”equazione guida” senza un tentativo di derivarla da un
principio più fondamentale. Bohm (1952), tuttavia, propone una
giustificazione più profonda dell'”equazione guida”. Egli postula
una versione modificata della seconda legge del moto di Newton:
(3) m d²x/dt ² = −grad[V(x,t ) + U(x,t )],
dove V(x,t ) è il potenziale classico standard e U(x,t ) è una
nuova entità, il "potenziale quantico":
(4) U(x,t ) = −(ℏ²/2m) grad²R(x,t )/R(x,t ),
24. e dimostra che se l’”equazione guida” si mantiene ad un tempo
iniziale t0 , allora segue dalle equazioni (2), (3), (4) e
dall’equazione di Schrödinger, che essa mantiene per tutto il
tempo. Sebbene Bohm meriti credito per il tentativo di
giustificare l'”equazione guida”, c'è in realtà una tensione tra
quell'equazione e l'equazione newtoniana modificata (3), che è
stata analizzata da Baublitz e Shimony (1996). L’equazione (3) è
un'equazione differenziale del secondo ordine nel tempo e non
determina una soluzione definita per tutti i tempi t senza due
condizioni iniziali (x e v al tempo t0).
Dal momento che v al tempo t0 è una contingenza, la validità
dell’”equazione guida” al tempo t0 (e quindi in tutte le altre
volte), è contingente. Bohm riconosce questa lacuna nella sua
teoria e discute le possibili soluzioni (Bohm, 1952), senza tuttavia
raggiungere una proposta definitiva. Se, tuttavia, questa difficoltà
viene messa da parte, viene fornita una soluzione al problema
della misurazione della meccanica quantistica standard; ovvero il
problema di contabilizzare il verificarsi di un risultato definito
quando il sistema di interesse viene preparato in una
sovrapposizione di autostati dell’operatore che è sottoposto a
misurazione. Inoltre, l'”equazione guida” garantisce l'accordo
con le previsioni statistiche della meccanica quantistica standard.
Il modello delle variabili nascoste che utilizzava l'”equazione
guida” ispirò Bell a prendere sul serio l'interpretazione delle
variabili nascoste della Meccanica Quantistica, e la non località
di questo modello suggeriva il suo teorema.
Un altro approccio alla congettura delle variabili nascoste è stato
quello di investigare la coerenza della struttura algebrica delle
grandezze fisiche caratterizzate dalla Meccanica Quantistica, con
un'interpretazione a variabili nascoste. La meccanica quantistica
standard presuppone che le "proposizioni" relative a un sistema
fisico siano isomorfe al reticolo L(H) di sottospazi lineari chiusi
25. di uno spazio di Hilbert H (in modo equivalente, al reticolo degli
operatori di proiezione su H) con le seguenti condizioni:
1) la proposizione il cui valore di verità è necessariamente
"vero" è abbinato all'intero spazio H;
2) la proposizione il cui valore di verità è necessariamente
'falso' è abbinata al sottospazio vuoto 0;
3) se un sottospazio S è abbinato a una proposizione q, allora
il complemento ortogonale di S è abbinato alla negazione
di q;
4) la proposizione q (il cui valore di verità è “vero” se il
valore di “verità” di q1 o q2 è “vero” ed è “falso” se le
risposte a entrambi q1 e q2 sono “false”), è abbinata alla
chiusura dell’unione teorica stabilita degli spazi S1 e S2 ,
rispettivamente abbinati a q1 e q2 (la chiusura è l’insieme
di tutti i vettori e può essere espressa come la somma di
un vettore in S1 e un vettore in S2).
Va sottolineato che quest’ultima corrispondenza (condizione 4)
non presuppone che una proposizione sia necessariamente vera o
falsa e quindi sia compatibile con l'indefinitezza della meccanica
quantistica di un valore di verità (che a sua volta implica la
caratteristica della meccanica quantistica che una quantità fisica
può essere indefinita in valore). Il tipo di interpretazione a
variabili nascoste che è stata trattata più estensivamente in
letteratura (spesso chiamata "interpretazione a variabili nascoste
non contestuali", per una ragione che sarà presto evidente) è una
mappatura m del reticolo L nella coppia {1,0}; dove m(S) = 1
intuitivamente significa che la proposizione abbinata a S è vera e
m(S) = 0 significa intuitivamente che la proposizione abbinata a
S è falsa. Una questione/domanda matematica importante è se
esistano tali mappature per le quali queste interpretazioni intuitive
sono mantenute e se inoltre le condizioni 1) e 4) sono soddisfatte.
Una risposta negativa a questa domanda per tutti i reticoli L(H)
dove lo spazio H di Hilbert ha una dimensionalità maggiore di 2,
26. è implicitamente legata a un importante teorema di Gleason
(1957); il quale fa di più, fornendo un catalogo completo di
possibili funzioni di probabilità su L(H).
La stessa risposta negativa è stata formulata molto più
semplicemente da John Bell nel 1966 (ma senza il catalogo
completo delle funzioni di probabilità raggiunto da Gleason), che
fornisce anche una risposta positiva alla domanda nel caso della
dimensionalità 2; in modo indipendente questi risultati furono
raggiunti anche da Kochen e Specker (1967). Va aggiunto che
nel caso della dimensionalità 2, le previsioni statistiche di
qualsiasi stato quantistico, possono essere recuperate da una
miscela appropriata delle mappature m.
Nel 1966, dopo aver presentato un “caso forte” contro il
programma a variabili nascoste (eccetto per il caso speciale di
dimensionalità 2), Bell esegue un drammatico ribaltamento
introducendo un nuovo tipo di interpretazione a variabili
nascoste; ovvero: una in cui il valore di verità che m assegna a un
sottospazio S, dipende dal contesto C di proposizioni misurate in
tandem con quello associato a S. Nel nuovo tipo di interpretazione
a variabili nascoste, il valore di verità nel quale m mappa S,
dipende dal contesto C. Queste interpretazioni sono
comunemente definite "interpretazioni a variabili nascoste
contestuali", mentre quelle in cui non esiste alcuna dipendenza
dal contesto sono chiamate "non contestuali". Bell dimostra la
coerenza delle interpretazioni a variabili nascoste contestuali, con
la struttura algebrica del reticolo L(H), per due esempi di H con
dimensione maggiore di 2. Va ricordato inoltre che la sua
proposta è stata sistematizzata da Gudder (1970); il quale
considera un contesto C come una subalgebra booleana
massimale del reticolo L(H) dei sottospazi.
Un'altra linea che portava al Teorema di Bell era l'investigazione
degli stati quantistici entangled ; ovvero degli stati quantistici di
un sistema composito, che non possono essere espressi come
prodotti diretti di stati quantistici dei singoli componenti. Il
fenomeno dell’entanglement è stato scoperto da Erwin
27. Schrödinger (1926) in uno dei suoi scritti pionieristici; ma il
significato di questa scoperta non è stato enfatizzato fino alla
pubblicazione di Einstein, Podolsky e Rosen (1935).
Einstein e i suoi collaboratori, esaminarono le correlazioni tra le
posizioni e la quantità di moto lineare di due particelle ben
separate e prive di spin e conclusero che (per evitare un appello
al principio di non località), queste correlazioni potevano essere
spiegate solo da "elementi della realtà fisica" in ciascuna
particella (nello specifico: dall’esatta determinazione di posizione
e quantità di moto di ogni particella); e poiché questa descrizione
è più ricca di quanto consentito dal principio di indeterminazione
della Meccanica Quantistica, la loro conclusione divenne
effettivamente il pilastro portante di un'eventuale interpretazione
a variabili nascoste della realtà fisica.
Va sottolineato che la loro argomentazione non dipende dal
ragionamento controfattuale; ovvero da un ragionamento su ciò
che si osserverebbe se una quantità fosse misurata in modo
diverso rispetto alla misurazione effettivamente eseguita. La loro
argomentazione può essere invece interamente riformulata nella
logica induttiva ordinaria, come sottolineato da d'Espagnat (1976)
e Shimony (2001). Questa riformulazione è importante perché
diminuisce la forza della confutazione di Bohr (1935), nei
confronti delle argomentazioni di Einstein, Podolsky e Rosen.
Questo indebolimento della confutazione di Bohr, lo si intuisce
sulla base del fatto che non si ha il diritto di trarre conclusioni
sull'esistenza di “elementi della realtà fisica”, da considerazioni
su ciò che si vedrebbe se venisse eseguita una misurazione diversa
da quella effettiva. Bell era scettico sulla confutazione di Bohr per
altri motivi; in sostanza egli considerava la confutazione di Bohr
troppo antropocentrica.
A conclusione del suo studio (1966), Bell dà una nuova
prospettiva di vita al programma delle variabili nascoste
introducendo la nozione di variabili nascoste contestuali.
Egli compie dunque un altro drammatico ribaltamento della
situazione, sollevando una domanda su un sistema composito
28. costituito da due (ben separate) particelle (1 e 2): supponiamo che
una proposizione associata a un sottospazio S1 dello spazio di
Hilbert della particella 1 sia sottoposta a misurazione e una teoria
delle variabili nascoste contestuali assegni il valore di verità
m(S1/C) a questa proposizione. Quali condizioni fisicamente
ragionevoli possono essere imposte al contesto C? Bell
suggerisce che C dovrebbe consistere solo di proposizioni
riguardanti la particella 1, altrimenti il risultato della misurazione
sulla particella 1 dipenderà da quali operazioni vengono eseguite
su una particella separata/lontana 2 (e ciò ovviamente
chiamerebbe in causa il principio di non località). Questa
condizione solleva la seguente domanda: le previsioni statistiche
della Meccanica Quantistica relative allo stato entangled,
possono essere duplicate da una teoria a variabili nascoste
contestuale, in cui il contesto C è localizzato?
È interessante notare che questa domanda deriva anche da una
considerazione del modello di de Broglie-Bohm: quando Bohm
ricava le predizioni statistiche di un sistema quantomeccanico
entangled, i cui costituenti sono ben separati, l'esito di una
misurazione effettuata su un costituente dipende dall'azione
dell’"onda guida" sui costituenti lontani, che in genere dipenderà
dalla disposizione di misurazione su quella parte. Bell fu quindi
portato euristicamente a chiedersi se fosse necessario un
“intervallo di località” per il recupero delle statistiche
quantomeccaniche.
Bell (1964) fornisce una dimostrazione pioneristica del teorema
che porta il suo nome, rendendo per prima cosa esplicito un
quadro concettuale (framework) in cui i valori di aspettativa
possono essere calcolati per le componenti di spin di una coppia
di particelle con spin ½ , quindi dimostrando che,
indipendentemente dalle scelte fatte per certe funzioni non
specificate che si verificano nel framework, i valori di aspettativa
obbediscono a una certa disuguaglianza che è stata definita
"Disuguaglianza di Bell". Questo termine è ora comunemente
usato per denotare collettivamente una famiglia di disuguaglianze
29. derivate in quadri concettuali simili, ma più generali di quella
originale di Bell. A volte queste disuguaglianze vengono
chiamate "disuguaglianze di tipo Bell". Ognuno di questi quadri
concettuali incorpora un certo tipo di teoria a variabili nascoste e
obbedisce a un'ipotesi di località. Anche il nome "Teoria realistica
locale" è appropriato e verrà utilizzato a breve tra le pagine di
questo libro, grazie alla sua generalità.
Bell calcola i valori di aspettativa per alcuni prodotti della forma
(σ1·â)(σ2·ê) [dove σ1 è l'operatore vettoriale di spin di Pauli per la
particella 1 e σ2 è l'operatore vettoriale di spin di Pauli per la
particella 2 (entrambe le particelle hanno spin ½ ); mentre â e ê
sono vettori unitari in 3D] e quindi mostra che questi valori
quantomeccanici di aspettativa, violano la disuguaglianza di Bell.
Questa violazione costituisce un caso speciale del Teorema di
Bell, poiché mostra che nessuna teoria realistica locale inclusa nel
quadro concettuale del documento di Bell del 1964, può essere
d'accordo con tutte le previsioni statistiche della teoria dei quanti.
Da ora in avanti verrà seguito il modello del documento di Bell
del 1964: a) formulazione di una struttura (quadro concettuale/
framework); b) derivazione di una disuguaglianza; c)
dimostrazione di una discrepanza tra certi valori di aspettativa
della meccanica quantistica e questa disuguaglianza.
Tuttavia, si supporrà una struttura concettuale più generale della
sua e verrà derivata una disuguaglianza un po' più generale,
ottenendo così un teorema più generale di quello derivato da Bell
nel 1964, ma con la stessa strategia e nello stesso spirito.
La struttura concettuale in cui verrà dimostrata una
disuguaglianza di tipo Bell, prima di tutto postula un insieme di
coppie di sistemi (i singoli sistemi in ciascuna coppia sono
etichettati come 1 e 2). Ogni coppia di sistemi è caratterizzata da
uno "stato completo" m, che contiene l'insieme delle proprietà
della coppia al momento della generazione. Lo stato completo m
può differire da coppia a coppia, ma la modalità di generazione
delle coppie stabilisce una distribuzione di probabilità ρ, che è
indipendente dai successivi sviluppi di ciascuno dei due sistemi
30. dopo che si sono separati. Diversi esperimenti possono essere
eseguiti su ciascun sistema. Quelli sul sistema 1 sono designati da
a, a ', etc; mentre quelli sul sistema 2 sono designati da b, b', etc.
Si può in linea di principio lasciare a, a', etc. e includere anche le
caratteristiche dell'apparato usato per la misurazione; ma poiché
la dipendenza del risultato dalle caratteristiche microscopiche
dell'apparato non è determinabile sperimentalmente, solo le
caratteristiche macroscopiche dell'apparato (come gli
orientamenti degli analizzatori di polarizzazione) nel loro
ambiente non completamente controllabile, devono essere
ammessi in pratica nelle descrizioni a, a ', etc. (idem per b, b',
etc.). L'ottimo accordo tra le misurazioni sperimentali delle
correlazioni negli esperimenti di tipo Bell e le previsioni della
meccanica quantistica di queste correlazioni, giustifica in pratica
la limitazione dell'attenzione alle caratteristiche macroscopiche
dell'apparato.
Il risultato di un esperimento sul sistema 1 è etichettato da s; il
quale può assumere su tale sistema, qualsiasi insieme discreto di
numeri reali nell'intervallo [-1, 1]. Allo stesso modo il risultato di
un esperimento sul sistema 2 è etichettato da t; il quale può
assumere su tale sistema, qualsiasi insieme discreto di numeri
reali nell'intervallo [-1, 1]. Va ricordato che la stessa versione di
Bell del suo teorema presuppone che s e t siano entrambi bivalenti
(-1 o 1); tuttavia in altre varianti del teorema vengono assunti altri
intervalli.
Si presuppone che le seguenti probabilità siano ben definite:
(5) p1
m (s |a, b, t) = la probabilità che il risultato della
misurazione eseguita sul sistema 1 sia s quando lo stato completo
è m. Le misurazioni eseguite sui sistemi 1 e 2, sono
rispettivamente a e b; mentre il risultato dell’esperimento sul
sistema 2 è t.
(6) p2
m (t |a, b, s) = la probabilità che il risultato della
misurazione eseguita sul sistema 2 sia t quando lo stato completo
31. è m. Le misurazioni eseguite sui sistemi 1 e 2, sono
rispettivamente a e b; mentre il risultato della misurazione a è s.
(7) pm (s, t |a, b) = la probabilità che i risultati delle misurazioni
congiunte a e b, quando lo stato completo è m, siano
rispettivamente s e t.
Si suppone che la funzione di probabilità p sia non negativa e si
sommi all'unità, quando la somma è tratta da tutti i valori
consentiti di s e t. Si noti che le teorie a variabili nascoste
precedentemente considerate, possono essere riassunte in questo
quadro concettuale, limitando i valori della funzione di
probabilità p a 1 e 0 (identificando 1 con il valore di verità "vero"
e 0 con il valore di verità "falso").
Un'ulteriore caratteristica del quadro concettuale è la località,
intesa come congiunzione delle seguenti condizioni di
indipendenza, così suddivise:
a) Indipendenza dal risultato a distanza (Remote Outcome
Independence)9
:
(8a) p1
m (s |a, b, t ) ≡ p1
m (s |a, b ) è indipendente da t,
(8b) p2
m (t |a, b, s ) ≡ p2
m (t |a, b ) è indipendente da s;
Si noti che le equazioni (8a) e (8b) non precludono le correlazioni
dei risultati dell’esperimento a sul sistema 1 e dell’esperimento b
sul sistema 2; esse dicono piuttosto che se viene fornito lo stato
completo m, il risultato s dell’esperimento sul sistema 1, non
fornisce ulteriori informazioni sul risultato dell'esperimento sul
sistema 2 e viceversa).
9
Si tratta di un neologismo, ma tuttavia appropriato, per ciò che viene
comunemente chiamato indipendenza dai risultati.
32. b) Indipendenza dal contesto a distanza (Remote Context
Independence)10
:
(9a) p1
m (s |a, b ) ≡ p1
m (s | a ) è indipendente da b,
(9b) p 2
m (t |a, b ) ≡ p2
m (t | b ) è indipendente da a.
Jarrett (1984) e Bell (1990) hanno dimostrato l'equivalenza della
congiunzione di (8a,b) e (9a,b) con la condizione di
fattorizzazione:
(10) pm (s, t |a, b) = p1
m(s |a )p2
m(t |b ),
e allo stesso modo per (a,b'), (a',b) e (a',b') sostituiti per (a,b). La
condizione di fattorizzazione espressa dall’equazione (10), è
sovente indicata come “località di Bell”. Va sottolineato che allo
stadio attuale dell'esposizione, tuttavia, la “località di Bell” è
semplicemente una condizione matematica all'interno di un
quadro concettuale, a cui non è stato attribuito alcun significato
fisico; in particolare nessuna connessione con la località della
Teoria della Relatività Speciale (sebbene tale connessione verrà
effettuata più tardi, quando verranno discusse le applicazioni
sperimentali del teorema di Bell).
La disuguaglianza di Bell è derivabile dalla sua condizione di
località per mezzo di un semplice lemma:
(11) Se q, q', r, r' appartengono tutti all'intervallo chiuso [-1,1],
allora S ≡ qr + qr '+ q'r - q'r' , appartiene all'intervallo chiuso
[-2 , 2].
Dimostrazione: poiché S è lineare in tutte e quattro le variabili (q,
q', r, r'), esso deve assumere i suoi valori di massimo e minimo,
10
Anche questo è un neologismo, ma appropriato, per ciò che viene
comunemente chiamato: indipendenza dei parametri.
33. agli angoli del dominio di questo quadruplo di variabili (dove
ogni q, q', r, r ' assume il valore +1 o -1). Quindi in questi angoli
S può essere solo un numero intero compreso tra -4 e +4. Ma S
può essere riscritto come (q + q ') (r + r') - 2q'r', e le due quantità
tra parentesi possono essere solo 0, 2 o -2; mentre l'ultimo termine
può essere solo -2 o +2, in modo che S non possa essere uguale a
± 3, +3, -4 o +4 agli angoli. C.v.d.
Ora definiamo il valore di aspettativa del prodotto “s.t” dei
risultati:
(12) Em (a,b ) ≡ Σs Σt pm(s,t |a,b )(st )
La sommatoria viene presa su tutti i valori consentiti di s e t. E
allo stesso modo con (a,b').(a',b) e (a',b') sostituito da (a, b). Si
prendano anche le quantità q, q', r, r' del lemma (11), affinché i
singoli valori di aspettativa siano:
(13a) q = Σs sp1
m(s|a),
(13b) q′ = Σs sp1
m(s|a′),
(13c) r = Σt tp2
m(t |b),
(13d) r′ = Σt tp2
m(t |b′).
Quindi il lemma, insieme all’equazione (12), con condizione di
fattorizzazione dell’equazione (10) e i limiti di s e t dichiarati
precedentemente per l’equazione (5), implica che:
(14) −2 ≤ Em(a,b ) + Em(a,b′) + Em(a′,b ) − Em(a′,b′) ≤ 2
Infine, torniamo al fatto che l'insieme di interesse consiste in
coppie di sistemi, ciascuno dei quali è governato da una
mappatura m; ma m è scelto stocasticamente da uno spazio M di
34. mappature governate da una funzione di probabilità standard ρ.
In pratica, per ogni sottoinsieme Borel B di M, ρ (B) è un numero
reale non negativo, ρ (M) = 1 e ρ (Uj Bj) = Σj ρ (Bj); dove i Bj'
sono sottoinsiemi Borel disgiunti di M e Uj Bj è l'unione teorica
dell'insieme dei Bj'. Se definiamo:
(15a) pρ(s,t |a,b ) ≡ ∫M pm(s,t |a,b ) dρ
(15b) Eρ(a,b ) ≡ ∫M Em(a,b )dρ = Σs Σt ∫M pm(s,t |a,b )(st ) dρ
E analogamente, quando (a, b'), (a', b), e (a ', b') sono sostituiti da
(a, b), allora le equazioni (14), (15a) e (15b) e le proprietà di ρ,
implicano che:
(16) −2 ≤ Eρ(a,b) + Eρ(a,b′) + Eρ(a′,b) − Eρ(a′,b′) ≤ 2
La disuguaglianza (16) è una disuguaglianza di tipo Bell, d'ora in
poi chiamata "disuguaglianza Bell-Clauser-Horne-Shimony-Holt
(BCHSH)".
Il terzo passo nella derivazione di un teorema di tipo Bell, consiste
nel mostrare un sistema, uno stato quantomeccanico e un insieme
di quantità per le quali le previsioni statistiche violano la
disuguaglianza (16). Poniamo ora che il sistema sia costituito da
una coppia di fotoni 1 e 2 che si propagano nella direzione z. I
due kets |x>j e |y>j costituiscono una base di polarizzazione per
il fotone j (j = 1, 2); il primo rappresenta (nella notazione di Dirac)
uno stato in cui il fotone 1 è polarizzato linearmente nella
direzione x e il secondo rappresenta uno stato in cui è polarizzato
linearmente nella direzione y. Per il sistema a due fotoni i quattro
kets del prodotto:
|x>1|x>2, |x>1 |y>2, |y>1 |x>2 e |y>1 |y>2 ,
35. costituiscono una base di polarizzazione. Ogni stato di
polarizzazione a due fotoni può essere espresso come una
combinazione lineare di questi quattro stati di base con
coefficienti complessi. Di particolare interesse sono gli stati
quantistici entangled, che in nessun modo possono essere espressi
come |φ> 1 |ξ> 2. Con |φ> e |ξ> intesi come stati di singoli fotoni,
avremo che:
(17) |Φ > = (1/√2)[ |x>1 |x>2 + |y>1 |y>2 ],
Equazione che ha l’utile proprietà di essere invariante sotto la
rotazione degli assi x e y, nel piano perpendicolare a z. Lo stato
quantistico totale della coppia di fotoni 1 e 2 è invariante sotto lo
scambio dei due fotoni, come richiesto dal fatto che i fotoni sono
particelle con spin intero. Né il fotone 1 né il fotone 2 si trovano
in uno stato di polarizzazione definito quando la coppia si trova
nello stato |ψ>, ma le loro potenzialità (nella terminologia di
Heisenberg, 1958) sono correlate: se a causa di una misurazione
o di qualche altro processo, la potenzialità del fotone 1 di essere
polarizzato lungo la direzione x o lungo la direzione y è
attualizzata, allora lo stesso sarà vero per il fotone 2, e viceversa.
Supponiamo ora che i fotoni 1 e 2 colpiscano rispettivamente le
facce I e II degli analizzatori di polarizzazione (a cristallo
birifrangente), con la faccia di ingresso di ciascun analizzatore
perpendicolare a z. Ogni analizzatore ha la proprietà di separare
la luce incidente sul suo schermo (faccia) in due raggi non
paralleli in uscita: il raggio “ordinario” e il raggio “non
ordinario”. L'asse di trasmissione dell'analizzatore è una
direzione con la proprietà di far emergere un fotone polarizzato
lungo di essa, nel raggio “ordinario” (con certezza se i cristalli
sono considerati ideali); mentre un fotone polarizzato in una
direzione perpendicolare a z e all'asse di trasmissione, emergerà
nel raggio “non ordinario”. Vedi la Figura 1.1.:
36. Figura 1.1. Schema degli analizzatori di polarizzazione.
Le coppie di fotoni vengono emesse dalla sorgente (fonte, v.
fig.1.1.) ed ogni coppia è descritta in notazione quantomeccanica
da |Φ> dell’equazione (17); ma anche da uno stato completo m
se si assume una teoria realistica locale. I e II sono analizzatori di
polarizzazione, con esito s = 1 e t = 1 che indica l'emergenza nel
raggio “ordinario”; mentre l’esito s = -1 e t = -1 indica
l'emergenza nel raggio “non ordinario”. I cristalli sono anche
idealizzati assumendo che nessun fotone incidente sia assorbito;
ma ognuno emerge nel raggio “ordinario” o “non ordinario”.
La meccanica quantistica fornisce un algoritmo per calcolare le
probabilità che i fotoni 1 e 2 emergeranno da questi analizzatori
idealizzati in raggi specificati, come funzioni degli orientamenti
a e b degli analizzatori (considerando a l'angolo tra l'asse di
trasmissione dell'analizzatore I e una direzione arbitraria fissa nel
piano x-y, e b che ha il significato analogo per l'analizzatore II).
(18a) probΦ(s,t |a,b ) = | <Φ|θs>1 |φt>2 |2
Qui s è un numero quantico associato al raggio nel quale emerge
il fotone 1; +1 indica l'emergenza nel raggio ordinario e -1 indica
l’emergenza nel raggio non ordinario quando a è dato. Mentre t è
il numero quantico analogo per il fotone 2 quando b è dato e:
|θs> 1 |φt> 2
37. è il ket che rappresenta lo stato quantico dei fotoni 1 e 2 con i
rispettivi numeri quantici s e t. Il calcolo delle probabilità di
interesse dall’equazione (18a) può essere semplificato usando
l'invarianza indicata dopo l'equazione (17) e riscrivendo| Φ>
come:
(19) |Φ> = (1/√2)[ |θ1>1 |θ1>2 + |θ−1>1 |θ−1>2 ]
L’equazione (19) risulta dall’equazione (17), sostituendo l'asse di
trasmissione dell'analizzatore I per x e la direzione perpendicolare
sia a z che a questo asse di trasmissione per y.
Poiché |θ−1>1 è ortogonale a |θ1>1, solo il primo termine
dell’equazione (19) contribuisce al prodotto interno
nell'equazione (18a) se s = t = 1; e dal momento che il prodotto
interno di |θ1>1 con se stesso è l'unità (a causa della
normalizzazione), allora l’equazione (18a), per s = t = 1, si riduce
a:
(18b) probΦ(1,1|a,b ) = (½)| 2<θ1|φ1>2 |2
Infine, l'espressione sul lato destro dell’equazione (18b) è valutata
usando la legge di Malus, che è preservata nel trattamento
quantomeccanico degli stati di polarizzazione. Dunque occorre
tener presente che: la probabilità per un fotone polarizzato in una
direzione n di passare attraverso un analizzatore di polarizzazione
ideale con l'asse di trasmissione n', è uguale al coseno quadrato
dell'angolo tra n e n'. Quindi:
(20a) probΦ(1,1|a,b ) = (½)cos2
σ,
dove σ è b-a. Allo stesso modo:
(20b) probΦ(−1,−1|a,b ) = (½) cos2
σ
38. (20c) probΦ(1,−1|a,b ) = probΦ(−1,1|a,b ) = (½)sin2
σ
Il valore di aspettativa del prodotto dei risultati s e t delle analisi
di polarizzazione dei fotoni 1 e 2 da parte dei rispettivi
analizzatori è:
(21) EΦ(a,b ) = probΦ(1,1|a,b ) + probΦ(−1,−1|a,b ) −
probΦ(1,−1| a,b ) − probΦ(−1,1|a,b ) = cos2
σ − sin2
σ = cos2σ
Ora scegliamo gli angoli di orientamento degli assi di
trasmissione:
(22) a = π/4, a′ = 0, b = π/8, b′ = 3 π/8
Ed in seguito:
(23a) EΦ(a,b ) = cos2(-π/8) = 0.707,
(23b) EΦ(a,b′) = cos2(π/8) = 0.707,
¨
(23c) EΦ(α′,b ) = cos2(π/8) = 0.707,
(23d) EΦ(a′,b′) = cos2(3π/8) = −0.707
Perciò avremo che:
(24) SΦ ≡ EΦ(a,b ) + EΦ(a,b′) + EΦ(a′,b ) − EΦ(a′,b′) = 2.828
L’equazione (24) mostra che ci sono situazioni in cui i calcoli
quantomeccanici violano la disuguaglianza BCHSH,
completando così la prova di una versione del teorema di Bell.
È importante notare, tuttavia, che tutti gli stati quantici entangled,
producono previsioni in violazione della disuguaglianza (16),
come hanno dimostrato indipendentemente Gisin (1991) e
Popescu / Rohrlich (1992). Popescu e Rohrlich (1992) mostrano
39. anche che la massima quantità di violazione è raggiunta con uno
stato quantistico di massimo grado di entanglement,
esemplificato da |Φ> dell’equazione (17).
Quello che il teorema di Bell mostra è che la meccanica
quantistica ha una struttura che è incompatibile con la struttura
concettuale entro cui è stata dimostrata la disuguaglianza di Bell:
una struttura in cui un sistema composito con due sottosistemi 1
e 2 è descritto da uno stato completo che assegna una probabilità
a ciascuno dei possibili risultati di ogni esperimento congiunto sui
sottosistemi 1 e 2, con le funzioni di probabilità che soddisfano
le due condizioni di indipendenza (8a, b ) e (9a, b); consentendo
inoltre delle miscele governate da funzioni arbitrarie di
probabilità nello spazio di stati completi. Un "esperimento" su un
sistema può essere compreso per includere il contesto entro il
quale viene misurata una proprietà fisica del sistema, ma le due
condizioni di indipendenza richiedono che il contesto sia locale.
Quindi l'incompatibilità della Meccanica Quantistica con questa
struttura concettuale non preclude i modelli a variabili nascoste
contestuali proposti da Bell nel 1966 (un esempio dei quali è il
modello de Broglie-Bohm), ma preclude i modelli in cui i contesti
sono richiesti per essere una struttura concettuale locale.
L'implicazione più evidente del Teorema di Bell è la luce che
getta sul paradosso EPR. Tale argomento concettuale (il
paradosso EPR) esamina uno stato quantico entangled e mostra
che una condizione necessaria per evitare l'azione a distanza tra
gli esiti di misurazione delle proprietà correlate dei due
sottosistemi (ad esempio, posizione in entrambi o quantità di
moto lineare in entrambi), è l'attribuzione di "elementi della
realtà fisica” corrispondenti alle proprietà correlate a ciascun
sottosistema, senza riferimento all'altro. Il Teorema di Bell
mostra che tale attribuzione avrà implicazioni statistiche in
disaccordo con quelle della meccanica quantistica.
Una caratteristica penetrante dell'analisi di Bell, se confrontata
con quella del paradosso EPR, è l'esame di diverse proprietà nei
due sottosistemi, come le polarizzazioni lineari lungo le diverse
40. direzioni nei sottosistemi 1 e 2, piuttosto che limitare la sua
attenzione alle correlazioni di proprietà identiche nei due
sottosistemi.
È possibile tuttavia affrontare il quadro concettuale della
disuguaglianza BCHSH (spesso definita anche disuguaglianza
CHSH), da un altro punto di vista, al fine di semplificarne la
comprensione e renderlo così più “accessibile” anche a coloro che
non hanno una grande dimestichezza con le operazioni
matematiche più avanzate. Come già visto, la disuguaglianza
CHSH limita la quantità di correlazione possibile tra gli spin
elettronici11
in una teoria a variabili nascoste. La violazione della
disuguaglianza CHSH, sia nella teoria che nei risultati
sperimentali della meccanica quantistica, dimostra il teorema di
Bell. Poniamo a questo punto la disuguaglianza CHSH nella
seguente forma:
(25) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| ≤ 2
11
Il calcolo effettuato da E. Schrödinger dell’energia degli orbitali
dell’idrogeno, costituì una pietra miliare nell’elaborazione della
moderna teoria atomica; tuttavia le righe spettrali non presentavano
esattamente la frequenza da lui prevista. Nel 1925 (prima del lavoro di
Schrödinger ma dopo lo sviluppo del primo modello atomico di Bohr),
due fisici americani di origine olandese, Samuel Goudsmit e George
Uhlenbeck, giunsero ad una importante conclusione e dunque ad una
possibile spiegazione delle piccole differenze osservate da Schrödinger.
Essi suggerirono l’idea che un elettrone si comporti per alcuni versi
come una sfera rotante (ovvero a qualcosa di simile ad un pianeta che
ruoti attorno al proprio asse di simmetria). Tale proprietà costituisce il
cosiddetto spin. Secondo la meccanica quantistica l’elettrone ha
accesso a due stati di spin, rappresentati con le frecce ↑ e ↓ o con le
lettere greche α e β. Possiamo immaginare che l’elettrone sia in grado
di ruotare in senso antiorario a una certa velocità (stato ↑) o in senso
orario esattamente alla stessa velocità (stato ↓). I due stati di spin sono
contraddistinti da un quarto numero quantico, il numero quantico
magnetico di spin, ms , che può assumere solo due valori: + ½ denota
un elettrone ↑ e - ½ denota l’altro elettrone ↓.
41. Dove a e α′ sono due possibili orientamenti per un rilevatore di
Stern-Gerlach in un esperimento di Bell; mentre b e b′ sono due
possibili orientamenti per il secondo rilevatore. Il valore E(a,b)
fornisce la correlazione degli spin lungo questi orientamenti ed è
definito (in meccanica quantistica) dall'aspettativa del prodotto
degli stati di spin lungo ciascuna direzione. La derivazione
formale di queste disuguaglianze è piuttosto ampia e complessa,
poiché introduce una possibile variabile nascosta e quindi
definisce le aspettative in termini di integrali che coinvolgono
questa variabile.
Tuttavia, l'intuizione dietro di essa è semplice: ciascuna delle
aspettative lungo l'orientamento a, α′, b e b′ è al massimo 1,
poiché ogni correlazione è al massimo 1 in una teoria classica. La
parte difficile della derivazione sta nel manipolare le espressioni
integrali che definiscono le correlazioni per ottenere piacevoli
disuguaglianze che non dipendano dalla variabile nascosta o
dall'angolo del rilevatore. Un semplice esempio della violazione
della disuguaglianza CHSH si verifica in esperimenti che
misurano lo spin nello stato di singoletto12
entangled di due
particelle con spin ½ :
(26) |ψ⟩ =
√
(|↑⟩ ⊗ |↓⟩ − |↓⟩ ⊗ |↑⟩)
Le correlazioni desiderate nella meccanica quantistica possono
essere trovate prendendo le aspettative delle misurazioni di spin
fatte sui due apparati di Stern-Gerlach.
Poniamo che A(a) sia una misurazione fatta con l’apparato A
avente orientamento a e in modo simile, consideriamo le seguenti
quattro misurazioni possibili:
(27a) A(a) = Ŝz ⊗ I
12
In meccanica quantistica un singoletto è una configurazione di spin o
di isospin composta da un solo stato.
42. (27b) A(α′) = Ŝx ⊗ I
(27c) B(b) = −
√
I ⊗ (Ŝz + Ŝx )
(27d) B(b′) =
√
I ⊗ (Ŝz − Ŝx )
Dove gli orientamenti b e b′ sono ruotati di 135° rispetto ad a e
α′; in modo che con i valori di aspettativa presi nello stato di
singoletto, avremo che:
(28a) E (a, b) = ⟨ ( ) ( )⟩ =
√
(28b) E (a, b′) = ⟨ ( ) (b′)⟩ = −
√
(28c) E (α′, b) = ⟨ ( ′) ( )⟩ =
√
(28d) E (α′,b′) = ⟨ ( ′) (b′)⟩ =
√
Sostituendo nella parte sinistra della diseguaglianza CHSH, si
trova:
(29) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| =
√
= 2√2
Ciò viola il limite di 2 previsto in una teoria a variabili nascoste
locali, come conseguenza dell'entanglement quantistico. Tale
equazione (29), nonostante sia evidente una differenza nei segni
più e meno delle varie correlazioni, porta esattamente allo stesso
risultato dell’equazione (24). Nella figura 1.2. riportata di seguito,
è rappresentata la correlazione E (a, b) come “funzione d’angolo”
43. tra gli orientamenti a e b. La discrepanza tra le previsioni
classiche e quelle quantistiche è evidente; specialmente alla
differenza dell’angolo di 135° usato nel precedente calcolo (dove
ogni correlazione assume il valore
√
; ovvero un valore che nella
teoria locale a variabili nascoste dovrebbe essere al massimo ½ ).
Figura 1.2. La correlazione E (a, b) come “funzione d’angolo”
tra gli orientamenti a e b.
44. Figura 1.3. John S. Bell (1964)
Figura 1.4. John Clauser nel suo laboratorio (1972)
45. MODELLANDO LA REALTÀ,
IMMAGINANDO L’IMPOSSIBILE
“Normalmente vediamo solo ciò che ci piace vedere,
tanto che a volte lo vediamo dove non c’è”.
Eric Hoffer
“L’illusione più pericolosa è quella che
esista soltanto un’unica realtà”.
Paul Watzlawick
CHSH e CH74: i primi esperimenti realizzati
Clauser, Horne, Shimony e Holt (da cui l’acronimo della
disuguaglianza CHSH), hanno derivato la disuguaglianza definita
con le iniziali dei loro cognomi, in una forma un po’ diversa
rispetto a quella conosciuta oggigiorno e usando assunzioni molto
più restrittive rispetto a quelle realmente necessarie.
La disuguaglianza CHSH (come nel caso di quella originale di
Bell, del 1964), si applica ad una proprietà statistica di “conteggi
di coincidenze” in un particolare esperimento e viene violata in
determinate condizioni dal formalismo della meccanica
quantistica; tuttavia, essa deve essere rispettata in una classe
generale di teorie locali a variabili nascoste. La forma più
semplice in assoluto in cui viene espressa generalmente la
disuguaglianza CHSH, è la seguente:
(30) − 2 ≤ S ≤ 2
Dove:
(31) S = E(a, b) − E(a, b′) + E(a′, b) + E(a′ b′)
46. In tale formula/equazione (31), come già visto più volte, a e a'
sono le impostazioni del rilevatore sul lato A; mentre b e b′ sono
le impostazioni del rilevatore sul lato B. Le quattro combinazioni
vengono testate in sotto-esperimenti separati. I termini E(a, b)
etc., sono le correlazioni quantistiche delle coppie di particelle,
dove la correlazione quantistica è definita come il valore di
aspettativa del prodotto dei "risultati" dell'esperimento; cioè la
media statistica di A(a ).B (b), dove A e B sono i risultati separati,
usando la codifica +1 per il canale “+” e -1 per il canale “-“.
La derivazione di Clauser e colleghi (del 1969), era orientata
verso l'uso di rilevatori a "due canali" (usati in genere proprio per
questo tipo di esperimenti); ma con il loro metodo gli unici
risultati possibili erano +1 e -1. Per adattare l’esperimento ad una
situazione reale (il che ai tempi significava l’impiego di luce
polarizzata e polarizzatori a singolo canale), essi dovevano
interpretare il “-“ come “nessun rilevamento” nel canale “+”.
Clauser e colleghi, nell’articolo originale non hanno discusso di
come la diseguaglianza a due canali poteva essere applicata in
esperimenti reali con veri rilevatori imperfetti; sebbene in seguito
sia stato dimostrato (Bell, 1971) che la disuguaglianza stessa era
ugualmente valida. Il verificarsi di risultati pari a zero, tuttavia,
significava che non era più così ovvio il modo in cui i valori di E
dovevano essere stimati dai dati sperimentali. In tutti gli
esperimenti degni di nota sulle disuguaglianze di Bell, si presume
che la sorgente rimanga essenzialmente costante, essendo
caratterizzata in ogni istante da uno stato ("variabile nascosta") λ
che ha una distribuzione costante ρ (λ) e non è influenzato dalla
scelta di impostazione del rilevatore.
In pratica nella maggior parte degli esperimenti si è utilizzata la
luce (considerando che venga emessa sotto forma di fotoni
particellari), piuttosto che gli atomi ipotizzati in origine da Bell,
per la verifica sperimentale delle sue disuguaglianze. Negli
esperimenti più noti (come ad esempio quello di A. Aspect del
1982), la proprietà più interessante rimane sempre la direzione di
polarizzazione (sebbene possano essere utilizzate altre proprietà).
47. Il diagramma in Figura 1.3., mostra un tipico esperimento ottico.
Le coincidenze (rilevazioni simultanee) vengono registrate, i
risultati vengono categorizzati come “+ +”, “+ −“, “− +” o “− −“
e i conteggi corrispondenti vengono accumulati.
Figura 2.1. Schema di un apparato per un esperimento di Bell a
due canali. La sorgente S produce coppie di "fotoni", inviati in
direzioni opposte. Ogni fotone incontra un polarizzatore a due
canali il cui orientamento può essere impostato dallo
sperimentatore. I segnali emergenti da ciascun canale sono
rilevati e le coincidenze contate dal monitor di coincidenza CM.
Vengono condotti quattro sotto-esperimenti separati,
corrispondenti ai quattro termini E(a, b) nel test di statistica S
(confr. eq. 31). Le impostazioni a, a', b e b' vengono generalmente
scelte con i seguenti angoli tipici per i test di Bell: 0; 45°; 22,5° e
67,5° (si tratta di particolari angoli per i quali i calcoli
quantomeccanici portano alla massima violazione della
disuguaglianza di Bell). Per ciascun valore selezionato di a e b,
vengono registrati i numeri di coincidenze in ciascuna categoria
(N ++, N--, N + - e N- +). La stima sperimentale per E (a, b) viene
quindi calcolata come:
(32) E = (N++ + N-- − N+- − N-+) / (N++ + N-- + N+- + N-+)
48. Una volta che tutte le E sono state stimate, è possibile trovare una
stima sperimentale di S (eq. 31). Se è numericamente maggiore di
2, ha violato la disuguaglianza CHSH e l’esperimento viene
considerato in accordo con le previsioni quantomeccaniche
(ovvero ha supportato le previsioni della meccanica quantistica);
ciò significa dunque, in ultima analisi, che tutte le teorie locali a
variabili nascoste sono state escluse. In esperimenti reali, tuttavia,
i rilevatori non sono solitamente efficienti al 100%, in modo tale
che venga rilevato solo un campione delle coppie emesse. La
validità della stima dipende dal campione di coppie rilevate; che
rappresenta un campione equo di quelle emesse (un'ipotesi
contestata dai sostenitori delle teorie locali a variabili nascoste).
In un articolo del 1969, Clauser, Horne, Shimony e Holt derivano
la ben nota disuguaglianza CHSH "a due canali", facendo ulteriori
presupposti che equivalgono all'assunzione di una forma ristretta
di "campionamento equo" (ovvero assumono che tutti i fotoni che
sono passati attraverso un polarizzatore, abbiano le stesse
possibilità di rilevamento); in seguito adattano tale derivazione ad
una situazione a canale singolo. Entrambe le derivazioni sono
state successivamente migliorate; quella a due canali nel 1971 da
Bell (Bell, 1971) e quella a canale singolo di Clauser e Horne nel
1974 (Clauser, 1974). Le derivazioni successive mostrano che
all’inizio erano state fatte alcune assunzioni non necessarie. Il test
a due canali non richiede l'ipotesi di Bell sui rilevatori paralleli;
sebbene (nella forma attualmente utilizzata) abbia bisogno di
un'equa ipotesi di campionamento ed è quindi vulnerabile alla
"scappatoia del giusto campionamento". La diseguaglianza a
canale singolo (qui chiamata disuguaglianza "CH74") non
richiede in realtà alcuna ipotesi sul campionamento corretto.
Nella loro derivazione del 1974, Clauser e Horne applicano ciò
che essi definivano una “teoria locale oggettiva” (piuttosto che
una teoria locale a variabili nascoste); assumendo che la variabile
nascosta λ non determinasse necessariamente dei risultati
“completi”; ma solo (quando presi in congiunzione con
l'impostazione del rilevatore) le loro probabilità di
49. concretizzazione. L'idea si è evoluta da quella introdotta da Bell
nel 1971 (Bell, 1971). Il modello può essere convertito in
deterministico assumendo più componenti per la variabile
nascosta (componenti associate al rilevatore piuttosto che alla
sorgente), ma non vi è alcun reale vantaggio nel farlo. Così com'è,
è un modello molto naturale da usare negli esperimenti ottici.
La disuguaglianza CH74 a canale singolo, come usata, per
esempio, in due esperimenti di Aspect (Aspect, 1981; Aspect,
1982b), è così definita:
(33) S = {N(a, b) − N(a, b′) + N(a′, b) + N(a′, b′)
− N(a′,∞) − N(∞, b)} / N(∞,∞) ≤ 0
Dove a e a' sono le impostazioni del polarizzatore (analizzatore)
per il lato 1 e b e b' sono le impostazioni del polarizzatore
(analizzatore) per il lato 2; mentre il simbolo ∞ indica l'assenza
di un polarizzatore. Ogni termine N rappresenta un conteggio di
coincidenza da un sotto-esperimento separato.
Figura 2.2. Schema di un apparato per un esperimento di Bell a
canale singolo. La sorgente S produce coppie di "fotoni", inviati
in direzioni opposte. Ogni fotone incontra un polarizzatore a
canale singolo il cui orientamento può essere impostato dallo
sperimentatore. I segnali emergenti sono rilevati e le coincidenze
contate dal monitor di coincidenza CM.
50. Ciò che ora verrà fatto (onde dimostrare la disomogeneità della
disuguaglianza CH74), sarà derivare una conseguenza
dell’ipotesi di fattorizzazione, testabile sperimentalmente senza
che N sia conosciuto e che contraddica le previsioni della
meccanica quantistica. Siano a e a' i due orientamenti
dell’analizzatore 1 e siano b e b' i due orientamenti
dell’analizzatore 2. Se le probabilità sono ragionevoli,
dovrebbero reggere le seguenti disuguaglianze:
(34a) 0 ≤ p1(λ, a) ≤ 1
(34b) 0 ≤ p1(λ, a′) ≤ 1
(34c) 0 ≤ p2(λ, b) ≤ 1
(34d) 0 ≤ p2(λ, b′) ≤ 1
Per ogni λ, arriviamo quindi alla seguente disuguaglianza:
(35) – 1 ≤ p1(λ, a) p2(λ, b) – p1(λ, a) p2(λ, b′) + p1(λ, a′)
p2(λ, b) + p1(λ, a′) p2(λ, b′) – p1(λ, a′) – p2(λ, b) ≤ 0
Moltiplicando per ρ(λ), ovvero per la probabilità che la sorgente
sia nello stato λ e procedendo con l’integrazione su λ, otteniamo
(ipotizzando la fattorizzazione):
(36) – 1 ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) + p1,2(a′, b′) –
p1(a′) – p2(b) ≤ 0
Quest’ultima disuguaglianza (36), rappresenta quindi un vincolo
necessario sulle previsioni statistiche di qualsiasi “teoria locale
oggettiva”. In tale disuguaglianza (36), i limiti superiori sono
testabili sperimentalmente senza che N sia conosciuto. Essa in
51. generale, si mantiene perfettamente per tutti i sistemi descritti da
una “teoria locale oggettiva”.
Per l’”utilizzo pratico”, esiste tuttavia la derivazione di una
disuguaglianza (omogenea) di struttura simile alla (36), che può
essere utilizzata con rilevatori reali a bassa efficienza. Essa
impiega un’ipotesi più forte rispetto alla 34a/b/c/d. Si tratta
dell’ipotesi denominata: “nessun miglioramento”; che può essere
espressa matematicamente nella forma:
(37a) 0 ≤ p1(λ, a) ≤ p1(λ, ∞) ≤ 1
(37b) 0 ≤ p2(λ, b) ≤ p2(λ, ∞) ≤ 1
Dove ∞ denota l'assenza del polarizzatore; p1 (λ, ∞) la probabilità
di un conteggio dal rilevatore 1 quando il polarizzatore è assente
e l'emissione è nello stato λ; e p2 (λ, ∞) la probabilità di un
conteggio dal rilevatore 2 quando il polarizzatore è assente e
l'emissione è nello stato λ.
Usando gli stessi argomenti di prima, troviamo la (36) sostituita
da (38):
(38) p1,2(∞, ∞) ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) +
p1,2(a′, b′) – p1,2(a′, ∞) – p1,2(∞, b) ≤ 0
Dividendo attraverso p1,2(∞, ∞) e sostituendo tutte le probabilità
con le loro stime (i conteggi corrispondenti divisi per N, il numero
di coppie emesse), la parte destra della disuguaglianza torna di
nuovo ad essere la CH74 definita in (33).
Quando sussiste un’invarianza rotazionale e le impostazioni del
rilevatore sono selezionate con le differenze tutte uguali a φ o 3φ
(per qualche angolo φ), si applicano dei casi speciali delle
disuguaglianze di Bell. Essi sono facilmente derivabili dalle
formulazioni generali di Clauser (Clauser, 1978). La
disuguaglianza CH74 può essere ulteriormente contratta nei test
52. di Bell che implicano la polarizzazione in una forma nota come
disuguaglianza di Freedman (se c'è una simmetria sufficiente
nell'esperimento e φ è scelto per essere π/8). Secondo Clauser e
Horne (Clauser, 1974), la disuguaglianza CHSH a due canali, può
essere considerata una conseguenza della disuguaglianza CH74
(Clauser, 1974). Quest’ultima (e i suoi relativi test di verifica), è
stata utilizzata in tutti gli esperimenti di Bell degli anni Settanta e
anche in quelli successivi; in particolar modo in due esperimenti
di Alain Aspect (Aspect, 1981, 1982b). I primi esperimenti, a
partire da quelli di Freedman e Clauser (Freedman, 1972),
sebbene quasi tutti violassero la disuguaglianza, non furono
accettati come prove convincenti per l'entanglement quantistico;
ciò a causa di potenziali “scappatoie” (loopholes) inerenti al
principio di località, che non hanno potuto essere completamente
escluse.
La caratteristica importante della disuguaglianza CH74 è, come
sottolineato sia nel documento del 1974 che nel rapporto del 1978
sui test di Bell di Clauser e Shimony (Clauser, 1978), che non
richiede la conoscenza di N (ovvero il numero di coppie emesse).
Allo stesso modo non richiede l'ipotesi di "campionamento equo"
che viene utilizzata per aggirare il problema di non conoscere N
nella versione attualmente accettata del test CHSH. Alain Aspect
è tra coloro che citano la precedente, indiretta, derivazione della
disuguaglianza CH74 ed hanno l'impressione che richieda la
giusta ipotesi di campionamento. In un esauriente articolo che
descrive i suoi tre esperimenti di Bell (Aspect, 2004), egli
trasmette l'impressione che il test CH74 sia generalmente
inferiore; in parte perché non segue così da vicino lo schema
originale di Bell ma anche a causa delle forti supposizioni che
ritiene siano necessarie.
Il test CH74 è infatti perfettamente valido a pieno titolo. A
prescindere dalle ipotesi standard del realismo locale, la versione
pratica (omogenea) del test CH74 richiede solo un'ipotesi in più:
quella di "nessun miglioramento" (37a; 37b; 38). Questa ipotesi
sembra ragionevole per motivi fisici, fintanto che vengono evitate
53. evidenti cause di distorsione. Alcuni realisti locali, tuttavia, si
sono opposti al test CH74. Per un motivo o per l’altro, è il test
CHSH che è stato accettato come standard, da quando Aspect lo
ha usato per la prima volta nel secondo (Aspect, 1982a) dei suoi
tre famosi esperimenti.
Gli esperimenti di Alain Aspect e colleghi
Alain Aspect e il suo team di Orsay (Parigi), hanno condotto tre
test di Bell utilizzando fonti a cascata di calcio. Per il primo e per
l'ultimo test, hanno usato la disuguaglianza CH74. Il secondo era
la prima applicazione della disuguaglianza CHSH. Il terzo (e più
famoso) era organizzato in modo tale che la scelta tra le due
impostazioni su ciascun lato fosse fatta durante il volo dei fotoni
(come originariamente suggerito da John Bell). Gli esperimenti di
Aspect, dopo il primo esperimento di Stuart Freedman e John
Clauser nel 1972, sono stati considerati come un ulteriore
supporto alla tesi che le disuguaglianze di Bell, vengono violate
nella versione CHSH. Tuttavia, i suoi risultati non erano del tutto
conclusivi poiché c'erano scappatoie (loopholes) che
permettevano spiegazioni alternative, conformi al realismo
locale.
Aspect, insieme ai suoi colleghi, cercò di creare apparati
sperimentali più complessi in confronto a quelli usati fino ad
allora. Sfruttando la stessa sorgente, Aspect eseguì tre diversi
esperimenti:
1) L’esperimento con polarizzatori a canale singolo
2) L’esperimento con polarizzatori a doppio canale
3) L’esperimento con polarizzatori variabili nel tempo
Quest’ultimo in particolare (il terzo), può essere considerato
come l’esperimento più preciso ed efficace, a cui gli altri due si
possono ricondurre. Vediamo dunque in dettaglio questo
importante esperimento.
54. Come sorgente comune a tutti e tre gli apparati sperimentali,
Aspect utilizzò l’eccitazione a due fotoni della cascata atomica
del Calcio:
(39) 4 ( ) → 4 4 → 4 ( )
Un processo ad alta efficienza e molto stabile che emette due
fotoni visibili v1 e v2 entangled in polarizzazione (v. fig. 2.3.).
Figura 2.3. Eccitazione a due fotoni della cascata atomica del
Calcio, utilizzata come sorgente per gli esperimenti di Aspect.
L’eccitazione della cascata viene prodotta con due diversi laser
aventi polarizzazioni parallele e focalizzati perpendicolarmente
sul fascio atomico di Calcio. Un primo ciclo di retroazione
controlla la lunghezza d’onda del laser, per avere il massimo
segnale di fluorescenza; un secondo ciclo invece controlla la
potenza del laser per stabilizzare l’emissione di fotoni.
In questo modo Aspect riuscì ad ottenere una sorgente che fosse
la più stabile ed efficiente possibile, con una velocità di cascata
di 4 x 107
coppie di fotoni al secondo, utilizzando solo 40mW per
ciascun laser. Va ricordato che, con la dicitura “a canale singolo”,
si intende l’atto di porre di fronte a ciascun polarizzatore, un
55. polarizzatore lineare che trasmette i fotoni polarizzati
parallelamente agli assi del polarizzatore stesso; bloccando
invece quelli polarizzati perpendicolarmente (in tal caso viene
misurato solo il valore +, per ciascun fotone delle coppie emesse
dalla sorgente).
In termini matematici, quindi, l’utilizzo di polarizzatori a canale
singolo, permette di determinare il solo risultato:
(40) R (a+, b+) = R (a, b)
poiché non si sa se il risultato -1 per un fotone, sia dovuto
effettivamente al fatto che la sua polarizzazione è ortogonale agli
assi del polarizzatore o se è dovuto ad una scarsa efficienza del
sistema di conteggio. Si richiedono quindi raccolte ausiliari di
dati, con uno o entrambi i polarizzatori rimossi, trovando in
questo modo le seguenti quantità:
(41a) R(∞, ∞) = R0
(41b) R(a+, ∞) = R1(a)
(41c) R(∞, b+) = R2(b)
Ed elaborando opportunamente la generalizzazione del teorema
di Bell, si ottiene la seguente disuguaglianza:
(42) −1 ≤ = [ ( , ) + (a′, b) + R(a′, b′)
– R(a, b′) – R1(a′) – R2(b)] ≤ 0
Questa breve digressione è necessaria poiché nell’esperimento
con i polarizzatori variabili nel tempo si farà uso di questa
disuguaglianza; per cui il range da violare è [-1; 0], anziché di
quella CHSH con range [-2; 2].
56. Come già accennato poc’anzi, l’esperimento più interessante
eseguito da Alain Aspect è quello in cui sono stati utilizzati
polarizzatori a disposizione variabile. Dal momento che
l’assunzione del principio di località è ragionevole ed intuitiva,
ma non è prescritta da alcuna legge fisica (se non dalla Relatività
Ristretta; ma come si avrà modo di appurare a breve, essa non
verrà intaccata), gli esperimenti di questo tipo sono di
fondamentale importanza. Infatti si potrebbe pensare che gli
analizzatori fissi possano essere disposti lungo le rispettive
direzioni, abbastanza in anticipo da consentire loro di comunicare
mediante uno scambio di segnali con velocità minore o uguale a
quella della luce. Se tali interazioni esistessero, non sarebbero più
valide le disuguaglianze di Bell (che hanno proprio come ipotesi
la non dipendenza di una misurazione, dal modo in cui viene
disposto l’altro apparato sperimentale).
Figura 2.4. Schema dell’esperimento a disposizione variabile con
commutatori ottici (CI e CII ); ciascuno seguito da due
polarizzatori orientati in due diverse direzioni.
Nell’apparato sperimentale utilizzato e mostrato in figura 2.4.,
ciascun polarizzatore è sostituito da un’apparecchiatura composta
da un dispositivo di commutazione, seguito da due polarizzatori
posizionati in due diverse posizioni: a e a′ dal lato I e b e b′ dal
57. lato II. Ciascuna apparecchiatura corrisponde ad un polarizzatore
variabile, commutato rapidamente tra due orientazioni. Infatti la
commutazione tra i due canali (e quindi il cambiamento di
orientazione dell’equivalente polarizzatore variabile), avviene in
10 nanosecondi. Considerato che tale intervallo di tempo (10 ns)
e il tempo di vita medio del livello intermedio della cascata
atomica (5 ns) sono piccoli in confronto a (40 ns), la rilevazione
di un evento su un lato e il corrispondente cambiamento di
orientazione sull’altro lato, sono separati da un vettore di tipo
spazio (ovvero sono due eventi in posizioni opposte rispetto a un
vettore di tipo luce).
La commutazione della luce è effettuata da interazione acustico-ottica,
con un’onda stazionaria ultrasonica nell’acqua. L’angolo di incidenza
(angolo di Bragg) e la potenza acustica sono regolati in modo da
ottenere una commutazione completa. Tuttavia, con i grandi fasci
utilizzati, la commutazione non era completa poiché l’angolo di
incidenza non era esattamente l’angolo di Bragg. Dunque, per ottenere
una miglior commutazione, venne ridotta la convergenza dei fasci; il
che portò ad un tasso di coincidenze rilevate, minore rispetto a quello
dei precedenti esperimenti. Tutto ciò ha portato a tempi di misurazione
maggiori e risultati che violano ancora una volta la disuguaglianza (42)
e che sono in completo accordo con la meccanica quantistica. Infatti
Aspect e colleghi, per misurazioni ad angoli θab = θba′ = θ a′b′ = 22,5°
hanno trovato il seguente risultato:
Sexp = 0,101 ± 0,020
Quando il valore predetto dalla meccanica quantistica è:
SQM = 0,112
Gli esperimenti di A. Aspect sono una prova sperimentale ma
fondamentale del disaccordo tra la meccanica quantistica e le
teorie locali a variabili nascoste. Da tale esperimento è dunque