-
Meccanica quantistica
Giuseppe Bogna
22 marzo 2019
Indice
1 Introduzione 31.1 Stati e misure . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . 31.2 Esperimento di
Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . . .
31.3 Assiomatizzazione parziale dell’apparato di Stern-Gerlach . .
. . . . . . . . . 6
2 Assiomatizzazione della meccanica quantistica 82.1 Richiami di
analisi e geometria . . . . . . . . . . . . . . . . . . . . . . . .
. . 8
2.1.1 Spazi a dimensione finita . . . . . . . . . . . . . . . .
. . . . . . . . . 92.1.2 Spazi a dimensione infinita . . . . . . .
. . . . . . . . . . . . . . . . . 13
2.2 Assiomi della meccanica quantistica: caso finito
dimensionale . . . . . . . . . 182.3 Assiomi della meccanica
quantistica: caso infinito dimensionale . . . . . . . . 20
3 Sviluppo della teoria 213.1 Valori medi e varianze . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 213.2 Stati
impuri e matrice densità . . . . . . . . . . . . . . . . . . . . .
. . . . . . 223.3 Matrice densità ridotta . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . 243.4 Evoluzione temporale e
Hamiltoniana . . . . . . . . . . . . . . . . . . . . . . 263.5
Rappresentazioni di Schrödinger, di Heisenberg e di interazione .
. . . . . . . 283.6 Teorema di Ehrenfest . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . 293.7 Evoluzione temporale
per una mistura . . . . . . . . . . . . . . . . . . . . . . 303.8
Regole di quantizzazione . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . 31
3.8.1 Quantizzazione canonica . . . . . . . . . . . . . . . . .
. . . . . . . . . 313.8.2 Principio di relatività . . . . . . . .
. . . . . . . . . . . . . . . . . . . 323.8.3 Particella libera . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.8.4
Distribuzione di quasiprobabilità di Wigner . . . . . . . . . . .
. . . . 36
3.9 Dinamica in una dimensione . . . . . . . . . . . . . . . . .
. . . . . . . . . . . 373.10 Oscillatore armonico quantistico . . .
. . . . . . . . . . . . . . . . . . . . . . 40
3.10.1 Stati coerenti . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . 423.11 Teorema del viriale . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . 483.12 Path
integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . 493.13 Teorema adiabatico . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . 50
3.13.1 Fasi di Berry . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . 523.14 Teoria delle perturbazioni . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . 54
3.14.1 Teoria delle perturbazioni per livelli discreti e non
degeneri . . . . . . 543.14.2 Teoria delle perturbazioni per
livelli discreti e degeneri . . . . . . . . . 573.14.3 Operatore
risolvente . . . . . . . . . . . . . . . . . . . . . . . . . . . .
593.14.4 Teoria delle perturbazioni dipendenti dal tempo . . . . .
. . . . . . . . 60
1
-
3.14.5 Oscillazioni di Rabi . . . . . . . . . . . . . . . . . .
. . . . . . . . . . 623.15 Algebre di Lie . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . 63
3.15.1 Oscillatore armonico . . . . . . . . . . . . . . . . . .
. . . . . . . . . . 663.15.2 Algebra di SU(2) . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . 673.15.3 Esempi di ottica
quantistica . . . . . . . . . . . . . . . . . . . . . . . . 68
3.16 Momento angolare . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . 693.17 Interazione con campi
elettromagnetici . . . . . . . . . . . . . . . . . . . . . . 78
3.17.1 Effetto Aharonov-Bohm . . . . . . . . . . . . . . . . . .
. . . . . . . . 823.17.2 Accoppiamento spin-campo magnetico e
equazione di Pauli-Schrödinger 84
3.18 Simmetrie discrete . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . 853.18.1 Parità . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . 853.18.2
Traslazioni discrete . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . 863.18.3 Inversione temporale . . . . . . . . . . . . .
. . . . . . . . . . . . . . . 87
3.19 Sistemi a molte particelle . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . 893.20 Cenni alla seconda quantizzazione
. . . . . . . . . . . . . . . . . . . . . . . . 943.21 Teoria dello
scattering . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . 97
2
-
1 Introduzione
L’approccio che avremo in questi appunti è di tipo assiomatico.
Faremo dei postulati, da cuisvilupperemo una teoria per cercare di
spiegare alcuni fatti sperimentali non interpretabiliclassicamente.
Non seguiremo invece un approccio storico, che consiste
essenzialmente nelpartire dal problema della radiazione di corpo
nero, dall’instabilità classica degli atomi edall’effetto
fotoelettrico per introdurre le prime idee della meccanica
quantistica. La teo-ria che andremo a costruire sarà piuttosto
controintuitiva sul piano interpretativo, mentresul piano formale
avremo una teoria autoconsistente e piuttosto semplice, che di
fatto saràqualcosa di più di una teoria fisica. Nella
formulazione assiomatica non c’è infatti il biso-gno di introdurre
particolari accoppiamenti o interazioni, anzi la struttura
matematica chedescriveremo sarà alla base di qualunque interazione
venga poi attuata dalla natura.
1.1 Stati e misure
Iniziamo descrivendo alcune differenze tra la meccanica classica
e la meccanica quantistica.Nella prima, non c’è una chiara
distinzione tra lo stato di un sistema e il concetto di misura.Al
contrario, lo stato di un sistema fisico è completamente
determinato una volta che vengonoassegnati (e quindi misurati) i
valori di un numero sufficiente di osservabili: ad esempio, lostato
di una particella puntiforme è noto una volta che ne conosciamo la
posizione e lavelocità. Questa sorta di equivalenza ci dà,
implicitamente, anche abbastanza informazionisu come preparare
effettivamente lo stato, almeno a livello di principio.
In meccanica quantistica il legame tra stato e misura non è
cos̀ı stringente: assegnare lostato di un sistema non fornisce in
maniera esaustiva il valore delle misure delle osservabilidel
sistema. Viceversa, la definizione di stato è ancora fortemente
connessa con il concettodi preparabilità. In particolare,
assegnare uno stato significa dare abbastanza informazioniper
prepararlo.
Un’altra differenza fondamentale tra le due teorie è
l’invasività delle misure. In una teoriaclassica è possibile,
almeno teoricamente, fare misure non invasive su un sistema: la
misurastessa, ossia l’estrazione di informazione dal sistema, non
altera lo stato di quest’ultimo.In meccanica quantistica le misure
sono invasive, nel senso che c’è un legame ben precisotra la
quantità di informazione ottenuta e la perturbazione introdotta
sul sistema. Questaperturbazione è intrinseca, ossia non è
imputabile semplicemente a una scarsa capacità
dellosperimentatore.
Infine, c’è una sostanziale differenza nello studio dei sistemi
compositi: se in meccanicaclassica si tende ad avere un approccio
riduzionista, ossia si tende a studiare i singoli co-stituenti di
un sistema fisico, per poi estenderlo a su larga scala, in
meccanica quantisticaquesto non è più possibile. In altre parole,
non è più vero che definire lo stato di un sistemacomposito sia
equivalente a definire lo stato di tutti i suoi costituenti.
1.2 Esperimento di Stern-Gerlach
Vediamo ora l’esperimento di Stern-Gerlach, che permette di
vedere le differenze discussenella sezione precedente. Consideriamo
una sorgente che emette atomi in una direzione,diciamo lungo ŷ.
Vogliamo ideare un apparato per misurare lo spin degli atomi, che
èuna proprietà tipicamente quantistica di un sistema, analoga per
certi versi a un momentomagnetico intrinseco µ. Supponiamo quindi
che gli atomi formino un fascio, ben collimato,che attraversa una
regione di spazio in cui è presente un campo magnetico non
uniforme
3
-
B = Bz(z)ẑ.1 Se lo spin si comporta come un momento magnetico,
all’interno del campo
magnetico ci aspettiamo innanzitutto una precessione di µ
intorno all’asse ẑ. Inoltre, datoche il campo non è uniforme
sull’atomo agisce una forza
F = µz∂Bz∂z
ẑ
Se supponiamo che l’orientazione dello spin degli atomi emessi
sia casuale, ci aspettiamo cheil fascio si divida attraversando la
regione con il campo magnetico. Se mettiamo uno
schermo,classicamente ci aspettiamo una distribuzione continua,
corrispondente a una distribuzionecontinua di µz tra −|µ| e +|µ|.
Sperimentalmente si osservano cose ben diverse: si formanodue
macchie molto pronunciate, che ci permettono di affermare (entro
gli errori sperimentali)che µz può avere solo due valori opposti.
A meno di costanti, indichiamoli con ±1, e diciamoche un atomo si
trova nello stato up (u) se µz = +1, nello stato down (d) se µz =
−1.Inoltre, si osserva che il numero di eventi in ogni picco è lo
stesso, dunque i due valori di µzsono equiprobabili.
Schematicamente, l’esperimento si può rappresentare come
ẑu
d
Il rettangolo privo di un lato indica la sorgente di atomi con
spin orientato casualmente, ilquadrato con all’interno ẑ indica la
regione di spazio in cui B è rivolto lungo ẑ, le lettereu e d
indicano che un atomo che esce dal campo magnetico può avere spin
up o down conuguali probabilità. Notiamo che il quadrato si
comporta di fatto come un misuratore di µ · ẑ.Consideriamo ora il
seguente esperimento ”a cascata”
ẑu ẑu
dove la scatola con ẑu indica un apparato di Stern-Gerlach che
lascia passare solo gli atomicon µz = +1 (ad esempio bloccando con
uno schermo quelli con µz = −1) e la freccia conuna sola u indica
un fascio con atomi tutti con µz = +1. In tal caso, dal secondo
apparatosi osserva che tutti gli atomi hanno ancora µz = +, e
questo continua a valere anche se simettono altri apparati oltre il
secondo. Questo fatto ci permette di interpretare la sorgentee il
primo stadio come un’unica sorgente ”pura” di atomi con solo spin
up. Indichiamolacon
ẑ, u
Usiamo chiaramente un simbolo analogo per una sorgente pura di
stati down
ẑ, d
Chiediamoci ora cosa accade se consideriamo
1In realtà un tale campo non rispetta le equazioni di Maxwell:
più realisticamente, consideriamo un campoin cui Bx, By � Bz.
4
-
ẑ, u −ẑ
In tal caso il fascio che esce dall’apparato è tutto con spin
down, nel senso che la deflessionedi cui risente è verso ẑ.
Questo è in accordo con l’idea di spin come grandezza
vettoriale.Possiamo anche ripetere l’esperimento ruotando
l’apparato di 90◦, ossia usando un apparatocon campo magnetico
rivolto lungo x̂. L’esito è analogo al primo esperimento
descritto, maquesta volta indichiamo i due valori possibili dello
spin con left (l) e right (r). Ovviamente
x̂lr
Se invece consideriamo l’apparato
ẑ, u x̂
si osserva ancora una divisione, sempre in parti uguali, del
fascio tra atomi con spin lefte atomi con spin right. Arrivati a
questo punto, una spiegazione classica potrebbe ancoraessere
accettabile: per un qualche motivo strano, il valore di µz e di µx
può solo essere±1, ma se accettiamo questo fatto l’apparato si
comporta come un selettore per i valori diµz e di µx. Se però
incliniamo l’apparato in una direzione n̂ = cos θx̂ + sin θẑ, si
osservaancora la divisione in due fasci. Questo non è spiegabile
se µ si comporta come un vettore.Ancora peggio, possiamo immaginare
un apparato formato da tre sottoapparati diretti lungoi versori ẑ,
ê1 = (
√3/2)x̂− (1/2)ẑ e ê2 = −(
√3/2)x̂− (1/2)ẑ. In tal modo, si ha
ẑ + ê1 + ê2 = 0
e di conseguenza(ẑ + ê1 + ê2) · µ = 0
Questo risultato è privo di senso, perchè i valori possibili
nella misura di ẑ ·µ, ê1 ·µ e ê2 ·µsono ±1, ma non possiamo
ottenere 0 sommando un numero dispari di ±1.2 Consideriamoora
l’apparato
ẑ, u x̂lr ẑ
Sperimentalmente si osserva che, all’uscita dell’apparato lungo
ẑ, il fascio si divide nuo-vamente tra stato up e stato down.
Questo controintuitivo risultato, unito a quello sugliapparati
lungo ẑ in cascata, mostra sperimentalmente come la misura di µx
sia invasiva, nelsenso che fa perdere l’informazione precedente su
µz. Come ultimo esempio, supponiamo divoler verificare tramite un
esperimento di Stern-Gerlach la proposizione ”µx = l ∨ µz = u”
2Questa incompatibilità tra le misure è essenzialmente dovuta
al fatto che le matrici di Pauli
σx =
(0 11 0
), σy =
(0 −ii 0
), σz =
(1 00 −1
)non commutano tra di loro.
5
-
per un fascio proveniente da una sorgente pura di stati up.
Possiamo procedere in due modidistinti:
1. misuriamo µz, poi misuriamo µx;
2. misuriamo µx, poi misuriamo µz.
Classicamente non c’è alcuna distinzione tra i due
procedimenti. D’altronde, come abbiamovisto, in meccanica classica
le misure lasciano il sistema inalterato nel suo stato.
Abbiamoormai imparato che in meccanica quantistica ciò non è più
vero: la prima procedura ci diceche la proposizione è vera nel
100% dei casi, mentre la seconda solo nel 75% dei casi.Notiamo
incidentalmente che, a meno di deviare il fascio, possiamo misurare
anche lo spinlungo ŷ. Nel seguito indichiamo con top (t) e bottom
(b) i due stati possibili di µy.
1.3 Assiomatizzazione parziale dell’apparato di
Stern-Gerlach
Dobbiamo ora sviluppare un certo numero di assiomi che ci
permettono di predire questibizzarri comportamenti. Per prima cosa,
postuliamo che lo stato proveniente da una sor-gente pura sia
associato a un vettore |ψ〉3 appartenente a un certo spazio di
Hilbert H,di dimensione opportuna. Ad esempio, per gli stati lungo
i tre assi usiamo le notazioni|u〉, |d〉, |l〉, |r〉, |t〉 e |b〉. A
questo punto postuliamo che |u〉 e |d〉 siano ortogonali,
poichèesiste una misura in grado di distinguerli senza ambiguità,
ossia
〈u|d〉 = 0
Inoltre, non ci sono altri gradi di libertà rilevanti.
Imponiamo quindi dimH = 2 e richiediamoche ogni altro stato |ψ〉 del
sistema sia della forma
|ψ〉 = α|u〉+ β|d〉
Come mostreremo tra poco, i coefficienti α, β sono generalmente
complessi. Per lo spin leftavremo allora
|l〉 = αl|u〉+ βl|d〉
Postuliamo ora che |αl|2 e |βl|2 siano le probabilità
condizionate di misurare l, ossia
|αl|2 = P (µz = +1||l〉)|βl|2 = P (µz = −1||l〉)
Notiamo che per costruzione si ha αl = 〈u|l〉 e βl = 〈d|l〉.
Inoltre, sperimentalmente siosserva
|αl|2 = |βl|2 =1
2
Ovviamente, questa condizione da sola non permette di
determinare i due coefficienti.Possiamo però fare un discorso
analogo per |r〉, ossia scrivere
|r〉 = αr|u〉+ βr|d〉
con
|αr|2 = |βr|2 =1
2
3Usiamo la notazione di Dirac, che sarà spiegata nella prossima
sezione.
6
-
Inoltre, anche |l〉 e |r〉 devono essere ortogonali. Questo
richiede
α∗rαl + β∗rβl = 0
Tutte queste condizioni sono verificate se si pone
|l〉 = 1√2
(|u〉+ |d〉)
|r〉 = 1√2
(|u〉 − |d〉)
Ma, chiaramente, non è la scrittura più generale dei
coefficienti: possiamo ad esempio molti-plicare αl e βl per e
iθl e αr e βr per eiθr , continuando a rispettare le condizioni
date. Vedremo
più avanti che in realtà queste fasi globali sono del tutto
irrilevanti. Infine, possiamo ripetereil discorso anche per |t〉 e
|b〉. In tal caso però abbiamo ulteriori condizioni, perchè
potremmoscegliere anche {|l〉, |r〉} come base di H. Queste
considerazioni richiedono, a meno di fasiglobali
|t〉 = 1√2
(|u〉 − i|d〉)
|b〉 = 1√2
(|u〉+ i|d〉)
Quindi è essenziale che H sia complesso. Effettivamente,
abbiamo costruito tre coppie divettori mutuamente ortogonali tali
che, comunque presi due vettori da coppie diverse, questihanno
sempre un angolo tra di loro di π/4. Questo è impossibile in uno
spazio vettoriale realea due dimensioni. Se però prendiamo H come
spazio complesso, potrebbe sorgerci il dubbioche in realtà sia a
quattro dimensioni, dato che due coefficienti complessi dipendono
daquattro parametri reali. Non è cos̀ı perchè uno dei parametri
può essere eliminato togliendole fasi globali, e un altro viene
eliminato considerando la condizione di normalizzazione,necessaria
per un’interpretazione probabilistica dei coefficienti. Questi due
parametri hannouna sorta di analogo nel sistema reale: i due angoli
necessari per determinare l’orientazionedell’apparato.
7
-
2 Assiomatizzazione della meccanica quantistica
2.1 Richiami di analisi e geometria
Diamo per note le nozioni di spazio vettoriale, lineare
indipendenza e base. Se non indicato,lo spazio si suppone su C.
Seguono alcune definizioni che dovrebbero essere già note, ma
sucui, a volte, c’è ambiguità nella notazione usata dai
matematici e dai fisici. Inoltre, daremodiversi risultati utili
senza dimostrazione, dato che dovrebbero essere stati visti in
altri corsi.Ci limiteremo a dimostrare solo alcuni ultimi teoremi e
lemmi.
Definizione 2.1 (Prodotto scalare). Sia V uno spazio vettoriale.
Un prodotto scalare su Vè una mappa (, ) : V × V → C che gode
di
• linearità nel secondo argomento,
• per ogni v ∈ V si ha (v, v) ≥ 0, con uguaglianza se e solo se
v = 0,
• per ogni v, w ∈ V si ha (v, w) = (w, v)∗.
Lemma 2.1 (Disuguaglianza di Cauchy-Schwarz). Sia V uno spazio
vettoriale dotato di unprodotto scalare (, ). Allora per ogni v, w
∈ V
|(v, w)| ≤√
(v, v)(w,w)
Definizione 2.2 (Norma indotta). Sia V uno spazio vettoriale
dotato di un prodotto scalare(, ). La norma indotta dal prodotto
scalare è la mappa ‖·‖ : V → R definita da
‖v‖ =√
(v, v)
e gode delle proprietà
• per ogni v ∈ V si ha ‖v‖ ≥ 0, con uguaglianza se e solo se v =
0,
• per ogni v ∈ V e λ ∈ C si ha ‖λv‖ = |λ| ‖v‖,
• vale la disuguaglianza triangolare, ovvero per ogni v, w ∈ V
si ha
‖v + w‖ ≤ ‖v‖+ ‖w‖
Definizione 2.3 (Distanza indotta). Sia V uno spazio vettoriale
dotato di un prodottoscalare (, ). La distanza indotta dal prodotto
scalare è la mappa d : V × V → R definita da
d(v, w) = ‖v − w‖
e gode delle proprietà
• per ogni v, w ∈ V si ha d(v, w) ≥ 0, con uguaglianza se e solo
se v = w,
• per ogni v, w ∈ V si ha d(v, w) = d(w, v),
• vale la disuguaglianza triangolare, ovvero per ogni v, w, u ∈
V si ha
d(v, w) ≤ d(v, u) + d(u,w)
8
-
Definizione 2.4 (Successione di Cauchy). Siano V uno spazio
vettoriale con una norma ‖·‖e {vn}n∈N una successione in V . La
successione è detta di Cauchy se per ogni ε > 0 esisteNε ∈ N
tale che per ogni n,m ≥ Nε si ha
‖vn − vm‖ < ε
Definizione 2.5 (Spazio completo). Uno spazio vettoriale con una
norma ‖·‖ si dice com-pleto o chiuso se tutte le successioni di
Cauchy convergono.
Definizione 2.6 (Spazio di Hilbert). Uno spazio di Hilbert H è
uno spazio vettoriale dotatodi prodotto scalare, completo rispetto
alla norma indotta.
2.1.1 Spazi a dimensione finita
D’ora in poi ci limitiamo al caso in cui dimH < +∞,
tratteremo poi il caso degli spazi adimensione infinita.
Definizione 2.7 (Funzionale e spazio duale). Sia H uno spazio di
Hilbert. Un funzionale suH è una mappa lineare φ : H → C.
L’insieme dei funzionali su H forma uno spazio vettoriale,detto
spazio duale di H e indicato con H†.
Teorema 2.1 (di rappresentazione di Riesz). Sia f un funzionale
su uno spazio di HilbertH. Allora esiste un unico vettore w ∈ H
tale che per ogni v ∈ V
f(v) = (w, v)
Corollario 2.1. Uno spazio di Hilbert H è isomorfo al suo duale
H†.
Definizione 2.8 (Operatore). Un operatore su uno spazio di
Hilbert H è un’applicazionelineare Θ̂ : H → H.
Possiamo ora introdurre la notazione di Dirac: indichiamo i
vettori di uno spazio diHilbert H con la notazione |v〉. Il vettore
cos̀ı indicato è detto ket. Inoltre, indichiamo glielementi H† con
la notazione 〈w|, detto bra. Dato l’isomorfismo tra H e H†,
indichiamo ilprodotto scalare tra |v〉 e |w〉 con
〈v|w〉
Inoltre, indichiamo l’azione di un operatore Θ̂ su un vettore
|v〉 con Θ̂|v〉. In tal modo, ilprodotto scalare tra i vettori |v〉 e
Θ̂|w〉 è
〈v|Θ̂|w〉
In particolare, il prodotto〈v|Θ̂|v〉
è detto valore di aspettazione di Θ̂ sul vettore (o stato) |v〉.
Infine, presi |v〉, |w〉 ∈ H,possiamo definire il prodotto esterno Θ̂
= |v〉〈w|. Questo operatore agisce su |u〉 ∈ H con
Θ̂|u〉 = 〈w|u〉|v〉
Si noti chetr(|v〉〈w|) = 〈w|v〉
Se |v〉 ha norma 1, allora Π̂ = |v〉〈v| è il proiettore su
|v〉.
9
-
Definizione 2.9 (Matrice associata a un operatore). Siano Θ̂ un
operatore su uno spaziodi Hilbert H di dimensione d e {|ei〉}di=1
una base di H. La matrice M associata a Θ̂ nellabase scelta è la
matrice con coefficienti
Mij = 〈ei|Θ̂|ej〉
Lemma 2.2. Nelle ipotesi precedenti, se indichiamo con α|v〉,
αΘ̂|v〉 ∈ Cd le d-uple delle
coordinate di |v〉 e Θ̂|v〉 rispetto alla base fissata, si ha
αΘ̂|v〉 = Mα|v〉
Definizione 2.10 (Prodotto di operatori, commutatore e
anticommutatore). Siano Θ̂1, Θ̂2due operatori su uno spazio di
Hilbert H. Il loro prodotto Θ̂1Θ̂2 è definito come la
lorocomposizione ed è, in generale, non commutativo. Il
commutatore tra Θ̂1 e Θ̂2 è
[Θ̂1, Θ̂2] = Θ̂1Θ̂2 − Θ̂2Θ̂1
mentre l’anticommutatore è{Θ̂1, Θ̂2} = Θ̂1Θ̂2 + Θ̂2Θ̂1
Diremo che i due operatori (anti)commutano o sono
(anti)commutanti se il loro (anti)commutatoreè l’operatore
nullo.
Definizione 2.11 (Operatore aggiunto). Sia Θ̂ un operatore su
uno spazio di Hilbert H.L’operatore aggiunto Θ̂† è definito come
l’operatore tale che per ogni |v〉, |w〉 ∈ H si abbia
〈w|Θ̂†|v〉 =(〈v|Θ̂|w〉
)∗Si noti che se M è la matrice associata a Θ̂ in una data
base, allora M † è la matrice
associata a Θ̂† nella stessa base. Inoltre, senza la notazione
di Dirac la definizione di aggiuntoè in un certo senso più
semplice: è l’operatore tale che, per ogni v, w ∈ H, si abbia
(Θ̂†v, w) = (v, Θ̂w)
Definizione 2.12 (Operatore normale). Un operatore Θ̂ su uno
spazio di Hilbert H si dicenormale se [Θ̂, Θ̂†] = 0.
Definizione 2.13 (Operatore isometrico). Un operatore Θ̂ su uno
spazio di Hilbert H sidice isometrico se Θ̂†Θ̂ = IdH.
Definizione 2.14 (Operatore unitario). Un operatore Θ̂ su uno
spazio di Hilbert H si diceunitario se è normale e isometrico.
Definizione 2.15 (Operatore hermitiano). Un operatore Θ̂ su uno
spazio di Hilbert H sidice hermitiano (o autoaggiunto) se Θ̂ =
Θ̂†.
Definizione 2.16 (Operatore positivo). Un operatore Θ̂ su uno
spazio di Hilbert H si dicepositivo, e si scrive Θ̂ ≥ 0, se il suo
valore di aspettazione è non negativo su ogni stato, ossiase per
ogni |ψ〉 ∈ H si ha 〈ψ|Θ̂|ψ〉 ≥ 0.
Si noti che un operatore positivo è necessariamente
autoaggiunto e che un operatoreautoaggiunto è necessariamente
normale. Inoltre, un operatore isometrico è
necessariamentenormale.
10
-
Definizione 2.17 (Autovettori e autovalori). Sia Θ̂ un operatore
su uno spazio di HilbertH. |v〉 ∈ H\{0} si dice autovettore di Θ̂
relativo all’autovalore λ ∈ C se
Θ̂|v〉 = λ|v〉
Definizione 2.18. Siano λ ∈ C, Θ̂ un operatore su uno spazio di
Hilbert H. Il polinomiocaratteristico pΘ̂ di Θ̂ è il polinomio
pΘ̂(λ) = det(Θ̂− λId)
Teorema 2.2. Gli autovalori di Θ̂ sono tutte e sole le radici di
pΘ̂.
Lemma 2.3. Gli autovalori di un operatore autoaggiunto sono
reali.
Lemma 2.4. Gli autovalori di un operatore isometrico hanno
modulo 1.
Lemma 2.5. Gli autovettori di un operatore normale relativi ad
autovalori distinti sonoortogonali.
Lemma 2.6. Se λ ∈ C è un autovalore per un operatore normale Θ̂
e |v〉 è un autovettorerelativo a λ, allora |v〉 è un autovettore
anche per Θ̂† con autovalore λ∗.
Teorema 2.3. Siano Â, B̂ due operatori diagonalizzabili su uno
spazio di Hilbert H. Alloraesiste una base di H di autovettori per
 e B̂ se e solo se [Â, B̂] = 0.
Teorema 2.4 (Teorema spettrale per operatori autoaggiunti). Sia
Θ̂ un operatore autoag-giunto su uno spazio di Hilbert H. Allora
esiste una base ortonormale di H di autovettoridi Θ̂.
Dimostrazione. Procediamo per induzione su d = dimH. Per d = 1
non c’è nulla da mostra-re. Supponiamo ora d > 1 e sia λ1 un
autovalore di Θ̂, con autovettore |e1〉 normalizzato.Completiamo
|e1〉 a base {|e1〉, |v2〉, . . . , |vd〉} di H in modo che |e1〉 sia
ortogonale a tutti glialtri vettori di base. In tal modo, se M è
la matrice associata a Θ̂ in tale base si ha
Mi1 = 〈ei|Θ̂|e1〉 = λ1δi1
In particolare, Mi1 = 0 per i ≥ 2. Dato che l’operatore è
autoaggiunto, allora Mij = M∗ji,dunque M1i = 0 per i ≥ 2. Quindi se
W ⊆ H è il sottospazio generato da |v2〉, . . . , |vd〉 si haΘ̂(W )
⊆W , inoltre dimW = d−1, quindi per ipotesi induttiva esiste una
base ortonormaleB di W di autovettori per Θ̂|W . Chiaramente B ∪
{|e1〉} è una base ortonormale di H diautovettori di Θ̂.
Lemma 2.7. Sia Θ̂ un operatore su uno spazio di Hilbert H. Θ̂ è
normale se e solo seesistono due operatori Â, B̂ autoaggiunti e
commutanti tali Θ̂ = Â+ iB̂.
Dimostrazione. La freccia ⇐ è ovvia. Per l’altra freccia,
definiamo
 =Θ̂ + Θ̂†
2
B̂ =Θ̂− Θ̂†
2i
Chiaramente  e B̂ sono due operatori autoaggiunti tali che Θ̂
= Â+ iB̂. Inoltre
[Â, B̂] =(Θ̂ + Θ̂†)(Θ̂− Θ̂†)
4i− (Θ̂− Θ̂
†)(Θ̂ + Θ̂†)
4i=
= 0
11
-
Teorema 2.5 (Teorema spettrale). Sia Θ̂ un operatore su uno
spazio di Hilbert H. AlloraΘ̂ è normale se e solo se esiste una
base ortonormale di H di autovettori di Θ̂.
Dimostrazione. Di nuovo, la freccia ⇐ è banale. Per l’altra
freccia, basta usare la decom-posizione data dal lemma precedente e
il teorema 2.3 per concludere.
Definizione 2.19 (Prodotto tensoriale di spazi vettoriali).
Siano V , W due spazi vettoriali.Un prodotto di tensoriale di V e W
, indicato con V ⊗̂W , è uno spazio vettoriale dotato diuna mappa
bilineare ⊗̂ : V ×W → V ⊗̂W , che associa la coppia (v, w) ∈ V ×W
all’elementov⊗̂w ∈ V ⊗̂W , tale che, preso uno spazio vettoriale Z
qualunque, per ogni mappa bilineareh : V ×W → Z esiste una mappa
lineare h′ : V ⊗̂W → Z che faccia commutare il diagramma
V ×W V ⊗̂W
Z
h
⊗̂
h′
Teorema 2.6. Il prodotto tensoriale V ⊗̂W esiste ed è unico a
meno di isomorfismi. Inol-tre, se {vi}i∈I e {wj}j∈J sono
rispettivamente una base di V e una base di W , allora{vi⊗̂wj
}(i,j)∈I×J è una base di V ⊗̂W .
Definizione 2.20. I vettori di V ⊗̂W della forma v⊗̂w, con v ∈ V
e w ∈ W , sono dettivettori decomponibili.
Definizione 2.21 (Prodotto tensoriale di spazi di Hilbert).
Siano H, H′ due spazi di Hilbertcon prodotti scalari (, )H e (, )H′
. Definiamo sui vettori decomponibili di H⊗̂H′ il prodottoscalare
(, ) : (H⊗̂H′)× (H⊗̂H′)→ C
(v1⊗̂v′1, v2⊗̂v′2) = (v1, v2)H(v′1, v′2)H′
Il prodotto tensoriale di H e H′, indicato con H⊗H′, è il
completamento metrico di H⊗̂H′.
Nel seguito, useremo il prodotto tensoriale di spazi di Hilbert
per studiare un sistemacomposito a partire dai suoi sottosistemi.
Indicheremo con stati entangled gli stati indecom-ponibili, e
questi avranno un ruolo importante dal punto di vista
interpretativo: rappresen-teranno infatti degli stati che non hanno
un analogo classico. In ogni caso si noti che, peril teorema 2.6,
comunque preso |ψ〉 ∈ H ⊗ H′ esistono due successioni {|φn〉H}n∈N ⊆ H
e{|χm〉H′}m∈N ⊆ H′ tali che
|ψ〉 =∑k
|φk〉H ⊗ |χk〉H′
Viceversa, gli stati decomponibili saranno chiamati
indifferentemente stati prodotto, statifattorizzati o stati non
entangled. Inoltre, per il prodotto tensoriale useremo, quando
nonambigue, le notazioni
|ψ〉H ⊗ |φ〉H′ = |ψ〉 ⊗ |φ〉 = |ψ〉H|φ〉H′ = |ψ, φ〉H,H′ = |φ〉H′ ⊗ |ψ〉H
= |φ〉H|ψ〉H′
In particolare, utilizzando le ultime due notazioni indicheremo
sempre con un pedice lospazio a cui appartengono i ket.
Definizione 2.22 (Prodotto tensoriale di operatori). Siano Θ̂H e
Ω̂H′ due operatori, rispet-tivamente sugli spazi di Hilbert H e H′.
Il prodotto tensoriale dei due operatori è l’operatoreΘ̂H ⊗ Ω̂H′
su H⊗H′ definito sugli stati non entangled da
Θ̂H ⊗ Ω̂H′(|ψ〉H ⊗ |φ〉H′) = (Θ̂H|ψ〉H)⊗ (Ω̂H′ |φ〉H′)
12
-
Se uno dei due operatori (ad esempio Ω̂′H) è l’identità,
spesso indicheremo per brevità
Θ̂H ⊗ IdH′ direttamente con Θ̂H. Inoltre, in maniera analoga a
quanto visto con gli stati,se Λ̂ è un operatore su H ⊗ H′ allora
esistono due successioni di operatori
{Θ̂
(n)H
}n∈N
e{Ω̂
(m)H′}m∈N
, rispettivamente su H e H′, tali che
Λ̂ =∑k
Θ̂(k)H ⊗ Ω̂
(k)H′
Gli operatori ”decomponibili”, cioè scrivibili come prodotto di
due operatori sui due spazi,saranno chiamati operatori locali.
Definizione 2.23 (Contrazione). Presi due spazi di Hilbert H e
H′, e presi |χ〉H ∈ H e|ψ〉H⊗H′ ∈ H ⊗H′, la contrazione tra i due
vettori è
〈χ|H ψ〉H⊗H′
Si noti che la contrazione è un vettore diH′. Infatti, fissate
due basi ortonormali {|i〉H}i∈Ie {|j〉H′}j∈J di H e H′, si ha
|χ〉H =∑i∈I
αi|i〉H
|ψ〉H⊗H′ =∑
(i,j)∈I×J
βij |i〉H ⊗ |j〉H′
e quindi
〈χ|H ψ〉H⊗H′ =∑
(i,j)∈I×J
α∗i βij |j〉H′ ∈ H′
Ovviamente, le definizioni date finora si estendono anche al
prodotto tensoriale di più spazidi Hilbert.
2.1.2 Spazi a dimensione infinita
In questa sezione non usiamo la notazione di Dirac. Molti dei
risultati appena visti nonvalgono nel caso generale: saremo quindi
interessati a dare opportune restrizioni per avererisultati simili
al caso finito dimensionale.
Definizione 2.24 (Convergenza forte e debole). Sia {en}n∈N una
successione in uno spaziodi Hilbert H. Si dice che la successione
converge fortemente (o in norma) a e ∈ H se
limn→+∞
‖en − e‖ = 0
Si dice che la successione converge debolmente a e ∈ H se per
ogni v ∈ H si ha
limn→+∞
(v, en) = (v, e)
Lemma 2.8. La convergenza forte implica la convergenza
debole.
Lemma 2.9 (Disuguaglianza di Bessel). Siano H uno spazio di
Hilbert a dimensione infinita,{vk}k∈N ⊆ H una successione di
vettori ortonormali e {αk}k∈N ⊆ C una successione dicomplessi.
Allora, per ogni w ∈ H e per ogni N ∈ N, la grandezza∥∥∥∥∥∥w −
N∑j=0
αjvj
∥∥∥∥∥∥13
-
è minima per αj = (vj , w). Inoltre, si ha
N∑j=0
|(vj , w)|2 ≤ ‖w‖2
Dimostrazione. Si ha
0 ≤
∥∥∥∥∥∥w −N∑j=0
αjvj
∥∥∥∥∥∥2
=
= ‖w‖2 +N∑j=0
|αj |2 − 2ReN∑j=0
αj(w, vj) =
= ‖w‖2 −N∑j=0
|(vj , w)|2 +N∑j=1
|αj − (vj , w)|2
Quindi la norma iniziale è minima se αj = (vj , w). Inoltre, in
tal caso segue la disuguaglianzadi Bessel.
Lemma 2.10. Siano H uno spazio di Hilbert, {vk}k∈N ⊆ H una
successione di vettoriortonormali, w ∈ H. La successione
wn =n∑k=0
(vk, w)vk
è di Cauchy.
Definizione 2.25 (Insieme ortonormale completo). Nelle ipotesi
del lemma precedente, seper ogni w ∈ H si ha w = lim
n→+∞wn, la successione {vk}k∈N forma un insieme ortonormale
completo.
Definizione 2.26 (Spazio di Hilbert separabile). Uno spazio di
Hilbert H è separabile seha un sottoinsieme numerabile e
denso.
Teorema 2.7. Uno spazio di Hilbert H è separabile se e solo se
ammette un insiemeortonormale completo numerabile.
Teorema 2.8. Lo spazio
l2 =
{a = {an}n∈N ⊆ C :
+∞∑n=0
|an|2 < +∞
}
munito del prodotto scalare
(a, b) =+∞∑n=0
a∗nbn
è uno spazio di Hilbert separabile.
Teorema 2.9. Ogni spazio di Hilbert H separabile è isomorfo a
l2.
14
-
Teorema 2.10. Lo spazio
L2(R) ={f : R→ C :
∫ +∞−∞
|f(x)|2dx < +∞}
munito del prodotto scalare
(f, g) =
∫ +∞−∞
f∗(x)g(x)dx
e a meno della relazione di equivalenza f ∼ g se f = g quasi
ovunque, è uno spazio diHilbert.
Consideriamo ora lo spazio degli operatori lineari su H: lo
indicheremo con L(H). Datoche lavoriamo in uno spazio a dimensione
infinita, si possono anche considerare operatorinon definiti su
tutto lo spazio4: se Θ̂ è un operatore, indichiamo il suo dominio
con D(Θ̂).
Definizione 2.27 (Norma operatoriale). Sia Θ̂ ∈ L(H). La norma
di Θ̂ è
‖Θ̂‖ = supv∈H\{0}
‖Θ̂v‖‖v‖
Definizione 2.28 (Operatore limitato). Sia Θ̂ ∈ L(H). Se ‖Θ̂‖
< +∞, diciamo che Θ̂ èlimitato. Lo spazio degli operatori
limitati è B(H).
Definizione 2.29 (Operatore chiuso). Sia Θ̂ un operatore lineare
in uno spazio di HilbertH con dominio D(Θ̂). Θ̂ si dice chiuso se
per ogni successione {vn}n∈N ⊆ D(Θ̂) tale cheesistano v = lim
n→+∞vn e w = lim
n→+∞Θ̂vn, si ha v ∈ D(Θ̂) e w = Tv.
Definizione 2.30 (Operatore aggiunto). Sia Θ̂ un operatore con
dominio D(Θ̂) denso inH. Sia
A ={v ∈ H : esiste v ∈ H tale che per ogni w ∈ D(Θ̂), (v, Θ̂w) =
(v, w)
}L’operatore aggiunto Θ̂† di Θ̂ è l’operatore con dominio
D(Θ̂†) = A tale che per ogniw ∈ D(Θ̂) e per ogni v ∈ D(Θ̂†)
(Θ̂†v, w) = (v, Θ̂w)
Si noti che la densità del dominio è essenziale per definire
l’aggiunto. Infatti, se esistonodue vettori v1, v2 ∈ H tali che per
ogni w ∈ D(Θ̂) si abbia
(v1 − v2, w) = 0
allora, grazie alla densità di D(Θ̂) e alla continuità del
prodotto scalare si ha la stessauguaglianza per ogni w ∈ H, e
quindi v1 = v2.
Definizione 2.31 (Operatore hermitiano). Un operatore Θ̂ si dice
hermitiano se per ogniv, w ∈ D(Θ̂) si ha
(w, Θ̂v) = (Θ̂w, v)
Si noti che un operatore hermitiano non coincide in generale con
il suo aggiunto, datoche questo potrebbe non esistere o avere un
dominio diverso.
4A differenza del caso finito dimensionale, definire un
operatore su un insieme ortonormale completo nonsignifica definirlo
su tutto lo spazio.
15
-
Definizione 2.32 (Operatore simmetrico). Un operatore Θ̂ è
simmetrico se è hermitiano eD(Θ̂) è denso in H.
Definizione 2.33 (Operatore autoaggiunto). Un operatore Θ̂ è
autoaggiunto se è simme-trico e se D(Θ̂) = D(Θ̂†).
Definizione 2.34 (Operatore compatto). Un operatore Θ̂ si dice
compatto se per ognisuccessione limitata {vn}n∈N ⊆ D(Θ̂) esiste una
sottosuccessione
{vnj}j∈N tale che la suc-
cessione{
Θ̂vnj
}j∈N
converge in modo forte. Lo spazio degli operatori compatti sarà
indicato
con B∞(H).
Lemma 2.11. Un operatore compatto è limitato.
Lemma 2.12. Un operatore è compatto se e solo se la chiusura
dell’immagine di un qua-lunque sottoinsieme limitato del dominio è
compatta.
Si noti che la proprietà di compattezza è molto forte: ad
esempio, l’identità non ècompatta.
Definizione 2.35 (Operatore di classe traccia). Un operatore Θ̂
è di classe traccia se esisteun sistema ortonormale completo
{ei}i∈N tale che
+∞∑i=0
(ei,√
Θ̂†Θ̂ ei) < +∞
Lo spazio degli operatori di classe traccia sarà indicato con
B1(H).
Gli operatori di classe traccia sono particolarmente importanti
perchè, come vedremo, aun dato sistema fisico sarà possibile
associare un operatore, detto matrice densità, che è diquesto
tipo. Inoltre, se Θ̂ ∈ B1(H), è possibile definire come in
dimensione finita la tracciatrΘ̂.
Teorema 2.11 (Teorema spettrale compatto autoaggiunto). Sia Θ̂
un operatore compattoe autoaggiunto con dominio H. Allora vale uno
dei seguenti enunciati:
• Θ̂ ha un numero finito di autovalori λ1, . . . , λn non nulli.
Detto Hj l’autospazio relativoa λj, si ha dimHj < +∞ per ogni j
= 1, . . . , n. Inoltre, vale la decomposizione
H = ker Θ̂⊕H1 ⊕ · · · ⊕ Hn
ed esiste una base ortonormale {eji}1≤i≤dimHj ,1≤j≤n di
autovettori di (ker Θ̂)⊥ di Θ̂.Si ha infine per ogni v ∈ H
Θ̂v =
n∑j=1
λj
dimHj∑i=1
(eji , v)eji
• Θ̂ ha un’infinità numerabile di autovalori non nulli λi, i ∈
N, ordinabili in modo che
limn→+∞
λn = 0
Detto Hj l’autospazio relativo a λj, si ha dimHj < +∞ per
ogni j ∈ N. Inoltre, valela decomposizione
H = ker Θ̂⊕+∞⊕j=0
Hj
16
-
ed esiste una base ortonormale {eji}1≤i≤dimHj ,j∈N di (ker Θ̂)⊥
di autovettori di Θ̂. Siha infine per ogni v ∈ H
Θ̂v =+∞∑j=0
λj
dimHj∑i=1
(eji , v)eji
Limitarsi però ai soli operatori compatti autoaggiunti sarebbe
un limite notevole perlo sviluppo della teoria. Cerchiamo adesso di
adattare alcune definizioni per avere unatrattazione decente dello
spettro di un operatore.
Definizione 2.36 (Autovalore generalizzato). Siano Θ̂ un
operatore in uno spazio di Hilbert
H e λ ∈ C. λ è un autovalore generalizzato per Θ̂ se esiste una
successione{v
(n)λ
}n∈N⊆ D(Θ̂)
di vettori normalizzati tali che
limn→+∞
‖Θ̂v(n)λ − λv(n)λ ‖ = 0
Teorema 2.12 (Weyl). λ è un autovalore generalizzato per Θ̂ se
e solo se Θ̂ − λId non èinvertibile.
Si noti che in dimensione finita non c’è distinzione tra
autovalori e autovalori gene-ralizzati. Vediamo ora un esempio:
consideriamo l’operatore Q̂ : D(Q̂) → L2(R) definitoda
Q̂[f ](x) = xf(x)
Il dominio è evidentemente
D(Q̂) ={f ∈ L2(R) : xf(x) ∈ L2(R)
}Si può mostrare che un tale dominio è denso in L2(R), dunque
possiamo considerare l’ag-giunto Q̂†. Si mostra facilmente che Q̂†
= Q̂ e D(Q̂†) = D(Q̂), quindi Q̂ è autoaggiunto. Sefλ è un
autofunzione relativa a λ (che supponiamo reale), si deve avere
(λ− x)fλ(x) = 0
Quindi fλ ha come supporto {λ}, ossia fλ = 0, dunque Q̂ non ha
autovalori propri. Sidefinisca ora la successione
f(n)λ (x) =
√n
2χAλ,n(x)
dove χAλ,n è la funzione caratteristica dell’intervallo
Aλ,n =
[λ− 1
n, λ+
1
n
]Allora banalmente ‖f (n)λ ‖ = 1 per ogni n e inoltre
limn→+∞
∥∥∥Q̂f (n)λ − λf (n)λ ∥∥∥ = 0Quindi lo spettro di Q̂ è tutto
l’asse reale, nonostante non esistano autovettori. Si può
peròpensare di estendere in qualche modo L2(R) in modo che abbia
più ”funzioni”. Ad esempio,se consideriamo l’equazione agli
autovalori per Q̂ nel senso delle distribuzioni, la soluzione
èsemplicemente
fλ(x) = Aδ(x− λ)
In tal senso, possiamo pensare alla δ come a un autovettore
generalizzato.
17
-
Definizione 2.37 (Tripla di Gelfand). Una tripla di Gelfand è
una tripla (Φ,H,Φ†), doveH è uno spazio di Hilbert, Φ un
sottospazio denso di H che abbia una struttura di spaziovettoriale
topologico tale che l’inclusione ι : Φ→ H sia continua.
Grazie al teorema di rappresentazione di Riesz, possiamo
identificare H come sottospa-zio di Φ†, e considerare quest’ultimo
come una sorta di allargamento di H. Nell’esempioprecedente
potremmo considerare la tripla di Gelfand (S,L2(R),S†), dove S è
la classe diScwhartz e S† è lo spazio delle distribuzioni
temperate. Riprendiamo adesso la notazionedi Dirac, in cui i
risultati che seguono si possono esprimere in maniera più
semplice. Inparticolare, identifichiamo f ∈ L2(R) con |f〉 e la
delta di Dirac centrata in x0 con |x0〉, lavalutazione di f in x0
con 〈x0|f〉. Dal fatto che
f(x) =
∫dyf(y)δ(x− y)
segue che l’identità si scrive nella forma
Id =
∫dx|x〉〈x|
mentre l’operatore Q̂ dell’esempio precedente, che ha come
autovalore generalizzato x e comeautovettore generalizzato |x〉, si
scrive come
Q̂ =
∫dxx|x〉〈x|
Più in generale, un operatore Ω̂ avrà uno spettro sia continuo
che discreto. La sua decom-posizione spettrale sarà della
forma
Ω̂ =
∫dω ω|ω〉〈ω|+
∑j
ωj |j〉〈j|
Imponiamo le relazioni per gli autovettori, generalizzati o
meno
〈j|j′〉 = δjj′〈ω|ω′〉 = δ(ω − ω′)〈ω|j〉 = 0
2.2 Assiomi della meccanica quantistica: caso finito
dimensionale
Siamo ora pronti a dare la prima assiomatizzazione della teoria.
Limitiamoci per ora a spazia dimensione finita, per poi
generalizzare a spazi a dimensione infinita.
Primo assioma: stati e spazi di Hilbert Dato un sistema fisico,
gli stati puri di questosistema sono descritti da vettori in uno
spazio di Hilbert H di dimensione (finita) opportuna.I vettori
devono essere normalizzati e possono essere definiti a meno di una
fase, dunque ivettori
|ψ〉, eiθ|ψ〉
rappresentano lo stesso stato. Assumiamo anche il viceversa: un
vettore normalizzato rap-presenta, a meno di una fase, uno stato
del sistema. Questo implica che nella teoria che
18
-
svilupperemo vale il principio di sovrapposizione: se |ψ〉 e |φ〉
rappresentano due stati, alloraanche
|ψ〉+ |φ〉‖|ψ〉+ |φ〉‖
rappresenta uno stato. In realtà, vista l’ambiguità della
fase, da due soli stati possiamocostruire molti stati diversi.
Infatti, tralasciando il fattore di normalizzazione, a partire
da|ψ〉 e |φ〉 possiamo costruire i vettori
|ψ〉+ eiθ|φ〉
che saranno associati a stati diversi del sistema.
Secondo assioma: osservabili e misure Le osservabili di un
sistema descritto dallospazio di Hilbert H sono associate agli
operatori autoaggiunti su H e viceversa. La misuradi un’osservabile
segue la regola di Born: se d = dimH e se consideriamo la
decomposizionespettrale di un operatore Θ̂
Θ̂ =
d∑j=1
θj |j〉〈j|
allora la misura dell’osservabile associata a Θ̂ sullo stato
puro |ψ〉 consiste in un’estrazionecasuale classica di un indice j
compreso tra 1 e d con probabilità
Pj(|ψ〉) = |〈j|ψ〉|2
All’indice j è associato il valore θj dell’osservabile.Si noti
che abbiamo utilizzato l’indice j per poter trattare anche il caso
in cui un auto-
valore è degenere. Inoltre, la definizione di Pj è consistente
con il primo assioma: dato che|ψ〉 è normalizzato e dato che
{|j〉}1≤j≤d è ortonormale, si ha
0 ≤ Pj(|ψ〉) ≤ 1,d∑j=1
Pj(|ψ〉) = 1
che sono le proprietà minime che richiediamo da una
distribuzione di probabilità. Resta orada chiarire cosa accade al
sistema nella misura, e in particolare in quale stato sia dopo
lastessa. Postuliamo che, in una misura di Θ̂ in cui si ottenga θj
, lo stato del sistema passiistantaneamente dallo stato |ψ〉 allo
stato |j〉. Questo processo viene chiamato meccanismodi proiezione
(o, se si vuole, si può parlare di misura proiettiva) e,
chiaramente, è un processoideale.
Terzo assioma: sistemi compositi Dati due sistemi A, B
indipendenti, con spazi di Hil-bertHA eHB, gli stati puri del
sistema composito AB sono vettori normalizzati appartenentia HAB =
HA ⊗HB.
Quarto assioma: evoluzione temporale Dato un sistema che al
tempo t0 si trova nellostato |ψ(t0)〉 e al tempo t ≥ t0 si trova
nello stato |ψ(t)〉, esiste un operatore lineare unitarioÛ(t, t0),
detto operatore di evoluzione temporale, tale che
|ψ(t)〉 = Û(t, t0)|ψ(t0)〉
Richiediamo inoltre che l’operatore di evoluzione sia continuo,
che Û(t, t) = Id e che perogni t0 ≤ t1 ≤ t2 valga
Û(t2, t0) = Û(t2, t1)Û(t1, t0)
Infine, per brevità useremo la notazione Û(t) al posto di
Û(t, t0), quando non ambigua.
19
-
2.3 Assiomi della meccanica quantistica: caso infinito
dimensionale
In questo caso gli assiomi non variano notevolmente dalla
situazione precedente. Dobbiamosolo stare attenti alle sottigliezze
che sorgono in uno spazio a dimensione infinita. Gli statidi un
sistema fisico continuano a essere vettori normalizzati di uno
spazio di Hilbert H,a meno di una fase, cos̀ı come le osservabili
continuano ad essere associate agli operatoriautoaggiunti su H.
Tuttavia, non esistono sempre autovalori all’interno dello spazio,
eall’occorrenza considereremo anche gli autovettori generalizzati e
lo spettro continuo di unoperatore.
20
-
3 Sviluppo della teoria
3.1 Valori medi e varianze
Per gli assiomi che abbiamo dato, il processo di misura è
necessariamente stocastico. Diconseguenza, è opportuno compiere
molte misure su sistemi nello stesso stato, per poi
trarreconclusioni di natura statistica. In quest’ottica, definiamo
il valor medio di un’osservabileΘ̂ sullo stato |ψ〉 come
〈Θ̂〉∣∣∣|ψ〉
=
d∑j=1
Pj(|ψ〉)θj
Si noti che dalla definizione di Pj(|ψ〉) e ricordando che Θ̂|j〉
= θj |j〉
〈Θ̂〉∣∣∣|ψ〉
=d∑j=1
〈ψ|j〉〈j|ψ〉θj =
=
〈ψ∣∣∣Θ̂∣∣∣ d∑
j=1
〈j|ψ〉|j〉
〉=
= 〈ψ|Θ̂|ψ〉
Inoltre, se ordiniamo gli autovalori θj in ordine crescente, si
ha chiaramente per ogni |ψ〉
θ1 ≤ 〈ψ|Θ̂|ψ〉 ≤ θd
Analogamente, definiamo la varianza sullo stato |ψ〉 come
∆2Θ̂∣∣∣|ψ〉
=
d∑j=1
Pj(|ψ〉)(
Θ̂− 〈Θ̂〉∣∣∣|ψ〉
)2Calcoli analoghi ai precedenti mostrano che
∆2Θ̂∣∣∣|ψ〉
=
〈ψ
∣∣∣∣∣(
Θ̂− 〈Θ̂〉∣∣∣|ψ〉
)2∣∣∣∣∣ψ〉
= 〈ψ|Θ̂2|ψ〉 −(〈ψ|Θ̂|ψ〉
)2Ricordando inoltre la traccia del prodotto esterno, si ha
anche
〈Θ̂〉∣∣∣|ψ〉
= tr(|ψ〉〈ψ|Θ̂
)∆2Θ̂
∣∣∣|ψ〉
= tr(|ψ〉〈ψ|Θ̂2
)−(
tr(|ψ〉〈ψ|Θ̂
))2Nel caso in cui lo stato |ψ〉 non abbia un qualche significato
particolare, ometteremo il pedicequando indicheremo i valori medi e
le varianze.
Prendiamo ora due osservabili  e B̂. In un contesto classico,
in cui le misure sononon invasive, non ci sono particolari vincoli
sulle accuratezze ∆2Â e ∆2B̂. In meccanicaquantistica invece la
situazione è molto diversa. Vale infatti
Teorema 3.1 (Disuaguaglianza di Robertson). Siano  e B̂ due
osservabili di un sistemafisico. Allora per ogni stato |ψ〉 vale
∆2Â∣∣∣|ψ〉
∆2B̂∣∣∣|ψ〉≥
∣∣∣〈ψ|[Â, B̂]|ψ〉∣∣∣24
21
-
Dimostrazione. Per α ∈ R e |ψ〉 ∈ H definiamo l’operatore
Tα = Â− 〈Â〉∣∣∣|ψ〉
+ iα
(B̂ − 〈B̂〉
∣∣∣|ψ〉
)Per ogni α si deve avere
〈ψ|T̂ †αT̂α|ψ〉 ≥ 0
Ciò significa (omettiamo i pedici per brevità)
0 ≤〈ψ|(Â− 〈Â〉 − iα(B̂ − 〈B̂〉))(Â− 〈Â〉+ iα(B̂ − 〈B̂〉))|ψ〉
==〈ψ|(Â− 〈Â〉)2|ψ〉+ α2〈ψ|(B̂ − 〈B̂〉)2|ψ〉+
+ iα〈ψ|(Â− 〈Â〉)(B̂ − 〈B̂〉)− (B̂ − 〈B̂〉)(Â− 〈Â〉)|ψ〉 ==∆2Â+
α2∆2B̂ + α〈ψ|i[Â, B̂]|ψ〉
Si noti che, essendo  e B̂ autoaggiunti, allora i[Â, B̂] è
autoaggiunto. Di conseguenza, iltermine che moltiplica α è reale,
dunque si deve imporre(
〈ψ|i[Â, B̂]|ψ〉)2− 4∆2Â∆2B̂ ≤ 0
che è la disuguaglianza di Robertson.
Da un punto di vista storico, Heisenberg introdusse il principio
di indeterminazione nellaforma
∆x∆px ≥~2
Questa disuguaglianza ora non è più un principio, ma è a
tutti gli effetti un teorema. Vedremoinfatti che
[p̂x, x̂] =~i
3.2 Stati impuri e matrice densità
Ritorniamo per un attimo al primo assioma: abbiamo richiesto che
i vettori |ψ〉 rappre-sentino gli stati puri del sistema.
Consideriamo ora un ensemble statistico di stati, ossiaun insieme
{|ψk〉}1≤k≤N di stati, e supponiamo di avere una qualche sorgente
che estraggacasualmente uno stato dall’ensemble. Sia Pk la
probabilità di estrarre lo stato |ψk〉. Allora,presa un’osservabile
Ω̂, è naturale definire il suo valor medio come
〈Ω̂〉 =N∑k=1
Pk〈ψk|Ω̂|ψk〉
Si noti che
〈Ω̂〉 =N∑k=1
Pjtr(|ψk〉〈ψk|Ω̂) =
= tr
(N∑k=1
Pk|ψk〉〈ψk|Ω̂
)=
= tr(ρ̂Ω̂)
22
-
All’ultimo passaggio si è introdotto l’operatore
ρ̂ =
N∑k=1
Pk|ψk〉〈ψk|
che viene chiamato operatore (o matrice) densità. Dato che per
ogni k si ha 0 ≤ Pk ≤ 1e dato che P1 + · · · + PN = 1, la matrice
densità è una somma convessa di proiettori. Inessa è codificata
tutta l’informazione estraibile dal sistema, dato che conoscendo la
matricedensità possiamo calcolare il valore medio di una qualunque
osservabile. Volendo, è possibilesostituire il primo assioma e
utilizzare direttamente la matrice densità (si noti che per
unostato puro |ψ〉 la matrice densità è il proiettore su |ψ〉).
Sorgono ora diverse domande: esi-stono ensemble diversi con la
stessa matrice densità? Se s̀ı, è possibile distinguerli in
qualchemodo? La prima risposta è affermativa, la seconda è
negativa, anche se non mostreremo talirisultati all’interno del
corso. Vediamo ora alcune proprietà di ρ̂: è un operatore
positivo,infatti
〈φ|ρ̂|φ〉 =N∑k=1
Pk |〈φ|ψk〉|2 ≥ 0
Inoltre, dato che gli stati dell’ensemble sono normalizzati e
dato che P1 + · · · + PN = 1, siha
trρ̂ = 1
Si può anche mostrare che queste due proprietà caratterizzano
tutte le possibili matricidensità. Più in generale, se Θ̂ ≥ 0
allora tr(ρ̂Θ̂) ≥ 0, dato che
tr(ρ̂Θ̂) =N∑j=1
Pj〈ψj |Θ̂|ψj〉 ≥ 0
Se poi Θ̂ = ρ̂, vale una disuguaglianza più forte:
tr(ρ̂2) ≥ 1N
che segue facilmente da Cauchy-Schwarz. Mostriamo ora che ρ̂−
ρ̂2 ≥ 0. Per farlo, notiamoche ρ̂ è autoaggiunto, fissiamo quindi
una base ortonormale {|χk〉}1≤k≤N di autovettori perρ̂. Sia λk
l’autovalore relativo a χk. Si ha 0 ≤ λk ≤ 1. La prima
disuguaglianza è banale,infatti
0 ≤ 〈χk|ρ̂|χk〉 = 〈χk|λk|χk〉 = λkPer la seconda, basta notare che
λk = ‖ρ̂|χk〉‖ e
‖ρ̂|χk〉‖ =
∥∥∥∥∥∥N∑j=1
Pj |ψj〉〈ψj |χk〉
∥∥∥∥∥∥ ≤≤
N∑j=1
Pj |〈ψj |χk〉| ≤
≤N∑j=1
Pj = 1
23
-
Allora, notando che
ρ̂ =
N∑k=1
λk|χk〉〈χk|
ρ̂2 =N∑k=1
λ2k|χk〉〈χk|
si ha su un qualunque stato |φ〉
〈φ|ρ̂− ρ̂2|φ〉 =N∑k=1
λk(1− λk) |〈χk|φ〉|2 ≥ 0
Vediamo in quali casi si ha ρ̂ = ρ̂2. Si mostra facilmente che
ciò accade se e solo se ρ̂ è lamatrice densità di uno stato
puro. Un’implicazione è ovvia, per l’altra notiamo che se ρ̂ =
ρ̂2
allora gli autovalori di ρ̂ possono essere solo 0 e 1. La
condizione trρ̂ = 1 richiede che ci siaesattamente un autovalore
pari a 1. Se ad esempio è λ1 = 1, allora
ρ̂ = |χ1〉〈χ1|
Si noti infine che anche per i sistemi descritti da una matrice
densità vale la disuguaglianzadi Robertson. Infatti, presa una
qualunque osservabile  si ha
∆2Â = tr(ρ̂Â2)−(
tr(ρ̂Â))2
= tr(ρ̂Â(Â− 〈Â〉)
)Se B̂ è un’altra osservabile e α un numero reale, poniamo
nuovamente
T̂α = Â− 〈Â〉+ iα(B̂ − 〈B̂〉)
Dato che T̂ †αT̂α ≥ 0, deve essere tr(ρ̂T̂ †αT̂α) ≥ 0, e i
calcoli sono analoghi a quanto già visto.
3.3 Matrice densità ridotta
Consideriamo ora uno sistema composito descritto dallo spazio
HAB = HA⊗HB. Preso unostato puro |ψ〉AB, ci chiediamo quale sia il
valore medio su questo stato di un’osservabilelocale Θ̂A su A.
Questo significa misurare l’osservabile Θ̂A ⊗ IdB sul sistema
composito.Fissiamo quindi due basi ortonormali {|i〉A}1≤i≤dA e
{|j〉B}1≤j≤dB rispettivamente di HA eHB. Se
|ψ〉AB =∑i,j
αij |i, j〉AB
24
-
allora il valor medio cercato è
〈Θ̂A〉∣∣∣|ψ〉AB
= 〈ψAB |Θ̂⊗ IdB|ψ〉AB =
=∑i,i′,j,j′
α∗ijαi′j′ 〈i, j|Θ̂A ⊗ IdB|i′, j′〉AB AB =
=∑i,i′,j,j′
α∗ijαi′j′ 〈i|Θ̂A|i′〉A A 〈j|j′〉B B =
=∑i,i′,j
α∗ijαi′jtrA(|i′〉A〈i|Θ̂A
)=
= trA
∑i,i′,j
α∗ijαi′j |i′〉A〈i|Θ̂A
== trA
(ρ̂AΘ̂A
)dove trA indica la traccia di un operatore su HA. Si è
introdotto l’operatore ρ̂A, dettomatrice densità ridotta, è
ρ̂A =∑i,i′,j
α∗ijαi′j |i′〉A〈i| =
=
dB∑j=1
〈j|ψ〉B AB〈ψ|j〉B
Si noti che anche nella seconda forma ρ̂A è una somma di
prodotti esterni, dato che 〈j|ψ〉B AB ∈HA e 〈ψ|j〉AB B ∈ H
†A. L’ultima somma è chiamata anche traccia parziale su B dello
stato
|ψ〉AB, e viene anche indicata con
ρ̂A = trB (|ψ〉AB〈ψ|)
La traccia parziale non dipende dalla base scelta di HB.
Infatti, se{|k̃〉B
}1≤k≤dB
è un’altra
base ortonormale e
|j〉B =dB∑k=1
ajk|k̃〉B
allora si ha
dB∑j=1
〈j|ψ〉B AB〈ψ|j〉B =dB∑
j,k,k′=1
a∗jkajk′ 〈k̃|ψ〉B AB〈ψ|k̃′〉B =dB∑
k,k′=1
〈k̃|ψ〉B AB〈ψ|k̃′〉B
si è usato il fatto che a∗jkajk′ = δkk′ . Inoltre, come nella
sezione precedente si ha ρ̂A ≥ 0 etrAρ̂A = 1. Mostriamo la
positvità: preso |v〉A ∈ HA si ha
〈v|Θ̂A|v〉A A =dB∑j=1
〈v|A ⊗ 〈j|B ψ〉AB〈ψ|j〉B ⊗ |v〉A =
=
dB∑j=1
‖ 〈ψ|(|v〉A〉 ⊗ |j〉B)AB ‖2 ≥ 0
25
-
Il calcolo della traccia è banale
trAρ̂A = tr
∑i,i′,j
α∗ijαi′j |i′〉A〈i|
==∑i,j
|αij |2 = 1
dato che |ψ〉AB è normalizzato.In conclusione, uno stato puro su
HA ⊗HB viene visto localmente come una mistura su
A. Si potrebbe mostrare che vale anche il contrario, ossia che a
una data matrice densitàρ̂ corrisponde uno stato puro in uno
spazio più grande. Di conseguenza, la meccanicaquantistica con il
primo postulato modificato è del tutto equivalente a quella che
stiamocostruendo.
3.4 Evoluzione temporale e Hamiltoniana
Consideriamo l’evoluzione temporale tra il tempo t e il tempo t+
δt, con 0 < δt� t. Allora,visto che l’operatore è continuo e
sulla diagonale coincide con l’identità, si ha
Û(t+ δt) = Û(t+ δt, t)Û(t) = (Id + K̂(t)δt+ o(δt))Û(t)
dove K̂ è un opportuno operatore, in generale dipendente dal
tempo. Riarrangiando i terminie prendendo il limite δt→ 0, si
trova
K̂(t)Û(t) =∂
∂tÛ(t) (1)
Imponiamo ora l’unitarietà dell’operatore di evoluzione. Si
ha
Id = Id + δt(K̂(t) + K̂†(t)) + o(δt)
dunque K̂(t) deve essere un operatore antihermitiano. Inoltre,
per motivi dimensionali K̂(t)deve avere le dimensioni dell’inverso
di un tempo. Poniamo quindi
K̂(t) = − i~Ĥ(t)
dove ~ = 1.05 · 10−27 erg·s è la costante di Planck ridotta e
l’operatore autoaggiunto Ĥ(t)è detto Hamiltoniana. Supponiamo ora
che l’Hamiltoniana non dipenda dal tempo. Alloral’equazione 1 può
essere integrata direttamente, ottenendo5
Û(t) = e−iĤt/~
Usando le proprietà dell’operatore di evoluzione si trova
inoltre
Û(t, t0) = eiĤ(t−t0)/~
Più in generale, anche nel caso infinito dimensionale, si
ha
5L’esponenziale di un operatore −iÂt è definito come la serie
di Taylor dell’esponenziale, valutata in −iÂt.Per un operatore
limitato tale serie è ben definita. Inoltre, se  è autoaggiunto
allora e−iÂt è unitario. Infine,se prendiamo la decomposizione
spettrale di  in una base ortonormale {|j〉}1≤j≤d e aj è
l’autovalore di |j〉,allora
e−iÂt =
d∑j=0
e−iajt|j〉〈j|
26
-
Teorema 3.2 (Stone). Sia Â(s) una famiglia di operatori unitari
dipendenti da un parametrocontinuo s tale che
Â(t+ s) = Â(t)Â(s) Â(0) = Id
Allora esiste un operatore autoaggiunto B̂ tale che
Â(s) = eiB̂s
Dall’equazione|ψ(t)〉 = Û(t)|ψ(0)〉
si ottiene inoltre l’equazione di Schrödinger
i~∂
∂t|ψ(t)〉 = Ĥ|ψ(t)〉
Consideriamo adesso il caso in cui Ĥ = Ĥ(t). L’equazione di
Schrödinger per l’evoluzionedegli stati continua a valere, ma la
soluzione per Û(t, 0) non è più il semplice esponenzialedi Ĥ.
La soluzione adesso è
Û(t, 0) =←−exp(− i~
∫ t0
dt′Ĥ(t′)
)avendo posto
←−exp(− i~
∫ t0
dt′Ĥ(t′)
)=
+∞∑n=0
(− i~
)n ∫ t0
dt(1)∫ t(1)
0dt(2) . . .
∫ t(n−1)0
dt(n)Ĥ(t(1))Ĥ(t(2)) . . . Ĥ(t(n))
Si noti che, in generale, [Ĥ(τ), Ĥ(τ ′)] 6= 0 se τ 6= τ ′,
dunque è importante l’ordine in cui èscritto l’integranda. La
freccia sopra exp serve appunto per ricordare il modo in cui
ordinarele varie Hamiltoniane, dato che 0 ≤ t(n) ≤ t(n−1) ≤ · · · ≤
t(1) ≤ t. La serie scritta è notacome serie integrale di Dyson o
esponenziale t-ordinato. Verifichiamo ora che è soluzione di1.
Notando che il termine con n = 0 non dà contributi, se deriviamo
otteniamo
∂
∂t←−exp
(− i~
∫ t0
dt′Ĥ(t′)
)=
+∞∑n=1
(− i~
)nĤ(t)
∫ t(1)0
dt(2) . . .
∫ t(n−1)0
dt(n)Ĥ(t(2)) . . . Ĥ(t(n)) =
= − i~Ĥ(t)
+∞∑n=1
(− i~
)n−1 ∫ t(1)0
dt(2) . . .
∫ t(n−1)0
dt(n)Ĥ(t(2)) . . . Ĥ(t(n)) =
= − i~Ĥ(t)←−exp
(− i~
∫ t0
dt′Ĥ(t′)
)Se ora prendiamo l’aggiunto dell’equazione 1 otteniamo
∂
∂tÛ †(t, 0) =
i
~Û †(t, 0)Ĥ(t)
In questo caso, come facilmente intuibile, la soluzione è
Û †(t, 0) = −→exp(i
~
∫ t0Ĥ(t′)dt′
)con, ovviamente,
−→exp(− i~
∫ t0
dt′Ĥ(t′)
)=
+∞∑n=0
(− i~
)n ∫ t0
dt(1)∫ t(1)
0dt(2) . . .
∫ t(n−1)0
dt(n)Ĥ(t(n))Ĥ(t(n−1)) . . . Ĥ(t(1))
27
-
Supponiamo adesso che per ogni τ, τ ′ si abbia [Ĥ(τ), Ĥ(τ ′)]
= 0. In tal caso è facile mostrareche ∫ t
0dt(1)
∫ t(1)0
dt(2) . . .
∫ t(n−1)0
dt(n)Ĥ(t(n))Ĥ(t(n−1)) . . . Ĥ(t(1)) =1
n!
(∫ t0Ĥ(t′)dt′
)nquindi sotto questa ipotesi recuperiamo la soluzione
esponenziale che avevamo trovato inprecedenza.
3.5 Rappresentazioni di Schrödinger, di Heisenberg e di
interazione
Consideriamo una generica osservabile Θ̂. Il suo valor medio su
uno stato |ψ(t)〉 è, comenoto
〈Θ̂〉t = 〈ψ(t)|Θ̂|ψ(t)〉
Questo modo di vedere l’evoluzione temporale, ossia tenendo
fissate le osservabili e facen-do evolvere gli stati, è noto come
rappresentazione di Schrödinger. Usando l’equazione dievoluzione
possiamo però scrivere anche
〈ψ(t)|Θ̂|ψ(t)〉 = 〈ψ(0)|Û †(t)Θ̂Û(t)|ψ(0)〉 ==
〈ψ(0)|Θ̂H(t)|ψ(0)〉
ossia, si tiene fisso lo stato del sistema e si fa evolvere
l’osservabile secondo
Θ̂H(t) = Û†(t)Θ̂Û(t)
Questo modo di interpretare l’evoluzione temporale è nota come
rappresentazione di Hei-senberg. Se Ĥ e Θ̂ sono indipendenti dal
tempo, l’equazione di evoluzione per Θ̂H è
dΘ̂Hdt
=i
~[Ĥ, Θ̂H(t)] =
i
~[Ĥ, Θ̂]H(t)
Può però accadere che Θ̂ stessa dipenda dal tempo. In tal
caso, si ha semplicemente
dΘ̂Hdt
=i
~[Ĥ, Θ̂H(t)] + Û
†(t)∂Θ̂
∂tÛ(t)
Infine, nel caso generalissimo in cui sia Ĥ che Θ̂ dipendono
dal tempo si ha
dΘ̂Hdt
=i
~[ĤH(t), Θ̂H(t)] + Û
†(t)∂Θ̂
∂tÛ(t)
Supponiamo ora che l’Hamiltoniana sia della forma Ĥ = Ĥ0+V̂ ,
con Ĥ0 e V̂ indipendentidal tempo. L’operatore di evoluzione è,
come noto,
Û(t) = e−i(Ĥ0+V )t/~
Vediamo se è possibile separare l’evoluzione dovuta a Ĥ0 e a
V̂ . Questo sarà particolarmenteutile se siamo interessati a uno
sviluppo perturbativo: ad esempio, Ĥ0 potrebbe
esserel’Hamiltoniana non interagente e V̂ un qualche (piccolo)
potenziale di interazione. Poniamo
|ψ̃(t)〉 = eiĤ0t/~|ψ(t)〉
28
-
Derivando rispetto al tempo otteniamo l’equazione di
evoluzione
∂
∂t|ψ̃(t)〉 = − i
~V̂1(t)|ψ̃(t)〉
doveV̂1(t) = e
iĤ0t/~V̂ e−iĤ0t/~
è l’evoluto di V̂ nella rappresentazione di Heisenberg. Come
abbiamo visto, la soluzione è
|ψ̃(t)〉 =←−exp(− i~
∫ t0V̂1(t
′)dt′)|ψ(0)〉
Da un punto di vista formale, tutto ciò è inutile: la
soluzione per |ψ̃(t)〉 è ben più complicatadi quella per |ψ(t)〉.
Tuttavia, se abbiamo in mente uno sviluppo perturbativo
possiamotroncare la serie di Dyson ai primi termini, mentre se
avessimo usato l’operatore di evoluzionecon Ĥ0 + V̂ avremmo avuto
non pochi problemi. Per questo motivo, questo modo di
vederel’evoluzione temporale è detto rappresentazione di
interazione. Prendiamo ora un’osservabileΘ̂, per semplicità
indipendente dal tempo. La sua media sullo stato |ψ(t)〉 è
〈Θ̂〉t = 〈ψ(t)|Θ̂|ψ(t)〉 = 〈ψ̃(t)|Θ̂(0)H | ˜ψ(t)〉
dove Θ̂(0)H è l’evoluto di Θ̂ nella rappresentazione di
Heisenberg, quando l’Hamiltoniana è la
sola Ĥ0. In un certo senso, la rappresentazione di interazione
è una sorta di ibrido tra ledue rappresentazioni precedenti, dato
che non tiene fissi né gli stati né le osservabili.
3.6 Teorema di Ehrenfest
Consideriamo un’Hamiltoniana della forma
Ĥ =p̂2
2m+ V (x̂)
e diamo per buono che[x̂, p̂] = i~
In tal modo, le equazioni di evoluzione per x̂ e p̂ sonodx̂
dt=
p̂
m
dp̂
dt= −∂V
∂x(x̂)
cioè coincidono con le equazioni del moto classiche, a patto di
sostituire la posizione el’impulso con i rispettivi operatori.
Questo risultato è noto come teorema di Ehrenfest.Come esempio,
prendiamo una particella libera, cioè poniamo V = 0. In tal caso,
le soluzionidelle equazioni sono semplicemente x̂t =
p̂0t
m+ x̂0
p̂t = p̂0
Si noti che, per ogni t, [x̂t, p̂t] = i~. Questo risultato è
atteso, dato che il commutatoreall’istante iniziale è una
costante, dunque commuta con l’operatore di evoluzione. Inoltre,si
noti che
[x̂t, x̂0] =~tmi
29
-
La disuguaglianza di Robertson allora implica
∆2x̂t∣∣|ψ〉 ≥
~2t2
4m2 ∆2x̂0||ψ〉
Quindi per tempi lunghi la varianza di x̂t cresce almeno
quadraticamente. Il limite ottenutonon è però molto predittivo
per piccoli tempi. Per un risultato più preciso, possiamo
calcolaredirettamente la varianza di x̂t, ottenendo
∆2x̂t∣∣|ψ〉 =
∆2p̂0∣∣|ψ〉 t
2
m2+ ∆2x̂0
∣∣|ψ〉 +
2t
mRe 〈ψ|∆x̂0∆p̂0|ψ〉
dove si è posto
∆x̂0 = x̂0 − 〈ψ|x̂0|ψ〉∆p̂0 = p̂0 − 〈ψ|p̂0|ψ〉
Per Cauchy-Schwarz si ha
Re 〈ψ|∆x̂0∆p̂0|ψ〉 ≤ |〈ψ|∆x̂0∆p̂0|ψ〉| ≤
≤√〈ψ|(∆x̂0)2|ψ〉〈ψ|(∆p̂0)2|ψ〉 =
=√
∆2x̂0||ψ〉 ∆2p̂0||ψ〉
Dunque otteniamo le disuguaglianze(t
m
√∆2p̂0||ψ〉 −
√∆2x̂0||ψ〉
)2≤ ∆2x̂t
∣∣|ψ〉 ≤
(t
m
√∆2p̂0||ψ〉 +
√∆2x̂0||ψ〉
)23.7 Evoluzione temporale per una mistura
Consideriamo una mistura descritta dalla matrice densità a t =
0
ρ̂(0) =∑j
Pj |ψj(0)〉〈ψj(0)|
Se facciamo evolvere il sistema, ci dobbiamo preoccupare
dell’evoluzione dei soli stati: leprobabilità Pj non vengono
modificate nel tempo. Allora la matrice densità a un tempo
tsarà
ρ̂(t) =∑j
Pj |ψj(t)〉〈ψj(t)| = Û(t)ρ̂(0)Û †(t)
Si noti l’ordine con cui compaiono gli operatori di evoluzione:
è opposto rispetto a quantoaccade per l’evoluzione di
un’osservabile. L’equazione di evoluzione per la matrice densità
èsemplicemente
∂
∂tρ̂(t) = − i
~[Ĥ, ρ̂(t)]
Si noti che il valor medio di un’osservabile Θ̂ è
〈Θ̂〉t = tr(Θ̂ρ̂(t)) == tr(Θ̂Û(t)ρ̂(0)Û †(t)) =
= tr(Θ̂H ρ̂)
dove si è usato il fatto che tr(ÂB̂) = tr(B̂Â).
30
-
3.8 Regole di quantizzazione
La teoria sviluppata fino a questo punto non dà alcuna
informazione su come costruireeffettivamente gli operatori
associati alle osservabili. In generale, non esiste un metodo
chesia corretto in ogni situazione, ma è possibile individuare
alcune regole più o meno comuniche possono essere di aiuto nella
costruzione di una teoria quantistica. Avremo in mente ilseguente
schema
1. si individuano le osservabili del sistema,
2. si studia come si relazionano tra loro,
3. si trovano degli operatori opportuni che rispettano le regole
di commutazione del puntoprecedente,
4. si rappresentano gli operatori in uno spazio vettoriale di
dimensione opportuna.
3.8.1 Quantizzazione canonica
Consideriamo un sistema classico descritto dalle posizioni {xi}
e dagli impulsi {pi}. Sia Hcl’Hamiltoniana classica del sistema.
Sappiamo che valgono le equazioni di Hamilton
ẋi =∂Hc∂pi
ṗi = −∂Hc∂qi
Se A = A(xi, pi, t) è un certo funzionale delle posizioni,
degli impulsi e del tempo, è notoche la sua equazione di
evoluzione temporale è
dA
dt= −{Hc, A}c +
∂A
∂t
dove {·, ·}c sono le parentesi di Poisson. Si ricordi che, prese
due funzioni f, g, le parentesidi Poisson sono definite come
{f, g}c =∑i
(∂f
∂xi
∂g
∂pi− ∂g∂xi
∂f
∂pi
)Si noti che le parentesi di Poisson sono lineari in f e in g,
antisimmetriche sotto lo scambiodi f e g e nulle se un’entrata è
costante. Inoltre, prese tre funzioni h1, h2, h3 qualunquevalgono
la regola di Leibniz
{h1h2, h3}c = {h1, h3}c h2 + h1 {h2, h3}c
e l’identità di Jacobi
{h1, {h2, h3}c}c + {h2, {h3, h1}c}c + {h3, {h1, h2}c}c = 0
La quantizzazione canonica di questo processo consiste nel
promuovere le posizioni xi aglioperatori posizione Q̂i e gli
impulsi pi agli operatori impulso P̂i. Più in generale,
dataun’osservabile classica A = A(xi, pi), le facciamo
corrispondere l’operatore
 = A(Q̂i, P̂i)
31
-
Inoltre, richiediamo una corrispondenza tra i commutatori e le
parentesi di Poisson, ossia
[Â, B̂] = i~{A,B}c
In particolare, l’operatore Hamiltoniana della sezione
precedente si ottiene ponendo
Ĥ = H(Q̂i, P̂i)
Questo metodo di quantizzazione è efficace in molte situazioni,
ma non può chiaramente fun-zionare se nel sistema esistono delle
osservabili quantistiche che non hanno un corrispettivoclassico (ad
esempio, lo spin).
3.8.2 Principio di relatività
Un altro modo di procedere consiste nel richiedere che la
descrizione fisica del sistema siaindipendente dal particolare
sistema di riferimento scelto. Supponiamo di avere due sistemidi
riferimento S ed S′. Immaginiamo che un osservatore in S abbia
associato al nostrosistema fisico uno spazio di Hilbert H e che un
osservatore in S′ gli abbia associato unospazio di Hilbert H′, in
generale diverso da H. Per fissare le idee, immaginiamo che S′
siasemplicemente traslato rispetto a S. Come noto dalla meccanica
classica, possiamo adottareuna visione attiva o passiva della
traslazione: nel primo caso, consideriamo lo stesso sistemafisico
descritto in due sistemi di riferimento diversi. Possiamo però
anche descrivere sistemifisici diversi in uno stesso sistema di
riferimento. Richiediamo che queste due visioni sianoequivalenti:
ciò richiede una corrispondenza tra H e H′. Consideriamo adesso
due eventiA e B, associati in S ai vettori |ψ〉, |φ〉 ∈ H. Possiamo
considerare gli eventi A′, B′ in Sottenuti antitraslando A e B,
cioè ottenuti con una trasformazione attiva. Questi avrannodei
vettori associati |ψ′〉, |φ′〉 ∈ H. Ci aspettiamo che esista una
funzione T : H → H, nonnecessariamente lineare, tale che |ψ′〉 = T
|ψ〉 e |φ′〉 = T |φ〉. L’osservazione cruciale è chenella teoria
quantistica le informazioni fisicamente rilevanti non sono
contenute nei vettoridello spazio di Hilbert, ma nei prodotti
|〈ψ|φ〉|2. Richiediamo quindi che T verifichi per ognicoppia di
stati |ψ〉, |φ〉 ∈ H
|〈ψ|T †T |φ〉|2 = |〈ψ|φ〉|2
Un importante risultato è il seguente
Teorema 3.3 (Wigner). Una trasformazione T : H → H che conserva
i moduli dei prodottiscalari è unitaria, a meno di una fase
globale dipendente dallo stato, o antiunitaria6, semprea meno di
una fase globale dipendente dallo stato.
Sappiamo che le fasi globali non sono rilevanti dal punto di
vista fisico: per ora tralascia-mole. Inoltre, limitiamoci alle
trasformazioni unitarie. Questo non è troppo restrittivo perdue
motivi: la maggior parte delle trasformazioni che ci interessano
dipenderanno in manieracontinua da un parametro reale τ e spesso
per τ = 0 coincideranno con l’operatore iden-tità, che è
unitario. Di conseguenza l’intero gruppo è formato da operatori
unitari. Inoltre,è possibile costruire tutti gli operatori
antiunitari moltiplicando un operatore antiunitarionoto con un
operatore unitario.
6Un operatore U su uno spazio di Hilbert è antiunitario se è
antilineare, ossia
U(α|ψ〉+ β|φ〉) = α∗U |ψ〉+ β∗U |φ〉
e se verifica〈ψ|U†U |φ〉 = 〈φ|ψ〉
32
-
Per la quantizzazione della teoria, supponiamo quindi di avere
diversi tipi di trasforma-zioni TJ(x), TJ ′(x
′),..., sul sistema (ad esempio, a pedici distinti possiamo far
corrisponderetraslazioni lungo assi diversi), ciascuna delle quali
dipendenti da un opportuno parametrocontinuo. Siano inoltre UJ(x),
UJ ′(x
′),..., le mappe unitarie in H associate a queste
trasfor-mazioni. Grazie a opportune considerazioni fisiche possiamo
capire quali siano le regole dicommutazione delle varie
trasformazioni. Da queste possiamo dedurre le regole di
commu-tazione tra gli operatori unitari associati. Inoltre, grazie
al teorema di Stone sappiamo chepossiamo scrivere
UJ(x) = exp(−iKJx)
dove KJ è un operatore autoaggiunto, dunque associato a
un’osservabile. Dalle regole dicommutazione sugli UJ(x), UJ ′(x
′),..., possiamo dedurre le regole di commutazione tra
leosservabili KJ , KJ ′ ,..., da cui deduco infine una teoria
quantistica. Vediamo un esempio diqueste regole di
quantizzazione.
3.8.3 Particella libera
Consideriamo una particella che, classicamente, è vincolata a
muoversi su asse. Vediamocome possiamo dare una descrizione
quantistica del sistema. Ci si aspetta che esista unoperatore
posizione Q̂ che sia in qualche modo legato alla posizione
classica. Inoltre, datoche la particella può classicamente essere
in ogni punto dell’asse, ci aspettiamo che Q̂ abbiauno spettro
continuo. Sia quindi
Q̂ =
∫dxx|x〉〈x|
con Q̂|x〉 = x|x〉, x ∈ R e |x〉 autovettore generalizzato, cioè
non appartenente allo spaziodi Hilbert. Se |ψ〉 è uno stato, allora
〈x|ψ〉 è una funzione di x. Poniamo ψ(x) = 〈x|ψ〉, dimodo che
|ψ〉 =∫
dxψ(x)|x〉
Dato che lo stato è normalizzato, si deve richiedere∫ +∞−∞
dx |ψ(x)|2 < +∞
ossia si deve richiedere ψ ∈ L2(R). La normalizzazione ci
permette di considerare |ψ(x)|2come una densità di probabilità.
Vista la decomposizione di |ψ〉, è naturale che |ψ(x)|2dxsia
interpretata come la probabilità che la particella abbia posizione
compresa tra x e x+dx.Si noti inoltre che, usando l’autoaggiunzione
di Q̂, si ottiene
〈x|Q̂|ψ〉 = x〈x|ψ〉 = xψ(x)
Consideriamo ora una traslazione del sistema. Questa è
sicuramente una trasformazioneche lascia invariata la fisica. Sia
quindi T̂a la traslazione di a. In astratto la traslazione siscrive
come
|ϕ〉 = T̂a|ψ〉
Se passiamo in coordinate, si ottiene
ϕ(x) = 〈x|T̂a|ψ〉 = ψ(x− a)
33
-
Si noti che la traslazione gode delle proprietà
T̂0 = Id
T̂aT̂−a = Id
T̂aT̂b = T̂bT̂a = T̂a+b
T̂ †a = T̂−a
Mostriamo solo l’ultima, dato che le altre sono ovvie. Per
definizione
〈φ|T̂ †a |ψ〉 = (〈ψ|T̂a|φ〉)∗
ovvero, passando in coordinate∫ +∞−∞
dxφ∗(x)T̂ †aψ(x) =
∫ +∞−∞
dxψ(x)φ∗(x− a) =
=
∫ +∞−∞
dxφ∗(x)ψ(x+ a)
Di conseguenza〈x|T̂ †a |ψ〉 = ψ(x+ a) = 〈x|T̂−a|ψ〉
e come voluto T̂ †a = T̂−a. Allora dalla seconda e dalla quarta
proprietà si deduce chel’operatore di traslazione è unitario. Per
Stone si ha quindi
T̂a = exp(−iK̂a)
Vediamo ora le regole di commutazione di T̂a e K̂ con la
posizione. Si ha
〈x|[Q̂, T̂a]|ψ〉 = 〈x|Q̂T̂a|ψ〉 − 〈x|T̂aQ̂|ψ〉 == xψ(x− a)− (x−
a)ψ(x− a) == aψ(x− a)
Questo significa che[Q̂, T̂a] = aT̂a
o in maniera equivalenteT †aQ̂T̂a = Q̂+ a
Questo risultato permette di capire come cambiano gli autostati
della posizione sotto tra-slazione. In particolare
Q̂T̂a|x〉 = T̂aT̂ †aQ̂T̂a|x〉 == T̂a(Q̂+ a)|x〉 == (x+ a)T̂a|x〉
Questo significa cheT̂a|x〉 = |x+ a〉
dunque vale la decomposizione
T̂a =
∫dx |x+ a〉〈x|
34
-
Calcoliamo ora [Q̂, K̂]. Sappiamo che
eiK̂aQ̂e−iK̂a = Q̂+ a
Espandendo al primo ordine in a si ottiene
(Id + iK̂a+ o(a))Q̂(Id− iK̂a+ o(a)) = Q̂− ia[Q̂, K̂] + o(a) ==
Q̂+ a
Si deduce quindi[Q̂, K̂] = i
Classicamente, sappiamo che il generatore delle traslazioni è
l’impulso. Richiediamo quindi
K̂ =P̂
~
dove la costante di Planck è introdotta per puri motivi
dimensionali. Vediamo ora comeagisce P̂ in rappresentazione delle
x. Per piccoli a si ha
〈x|T̂a|ψ〉 = 〈x|Id− iaP̂
~+ o(a)|ψ〉 =
= ψ(x)− ia~〈x|P̂ |ψ〉+ o(a)
D’altro canto
〈x|T̂a|ψ〉 = ψ(x− a) =
= ψ(x)− a∂ψ∂x
(x) + o(a)
Dunque
〈x|P̂ |ψ〉 = ~i
∂ψ
∂x
Cerchiamo ora gli autostati dell’impulso. Se P̂ |p〉 = p|p〉 e
ψp(x) = 〈x|p〉, si ha
~i
∂ψp∂x
= pψp
La soluzione normalizzata (nel senso delle distribuzioni) è
ψp(x) =1√2π~
eipx/~
Poniamo ora ψ̃(p) = 〈p|ψ〉, come fatto prima per ψ(x) = 〈x|ψ〉.
Anche in questo caso sideduce che ψ̃ ∈ L2(R). Inoltre, si ha
ψ̃(p) =
∫dx 〈p|x〉〈x|ψ〉 =
=
∫dx√2π~
ψ(x)e−ipx/~
Dunque ψ̃ è, a meno di una costante moltiplicativa, la
trasformata di Fourier di ψ.
35
-
3.8.4 Distribuzione di quasiprobabilità di Wigner
Sempre nell’ottica della quantizzazione di una teoria classica,
chiediamoci se è possibilecostruire un analogo quantistico dello
spazio delle fasi. Classicamente, sappiamo che l’evo-luzione
temporale di un sistema può essere rappresentata come una certa
curva nello spaziodelle fasi. In particolare, un punto preciso
dello spazio delle fasi corrisponde a certi valoriben definiti
degli impulsi e delle coordinate del sistema. Tuttavia, lo spazio
delle fasi è ancheutile in fisica statistica, a patto di
introdurre delle opportune distribuzioni di probabilità%(x, p). Il
primo approccio è di sicuro inapplicabile, a causa del principio
di indeterminazio-ne. Il secondo approccio è invece più
promettente, ma dobbiamo fare attenzione: la teoriaquantistica ci
dà già delle distribuzioni di probabilità sulla posizione e
sull’impulso. Se vo-gliamo essere consistenti, dobbiamo chiedere
che le probabilità marginali di % coincidano conle distribuzioni
che già conosciamo, ossia dobbiamo richiedere
|ψ(x)|2 =∫
dp %(x, p)
|ψ̃(p)|2 =∫
dx %(x, p)
Verifichiamo che la seguente funzione ha le proprietà
desiderate
W (x0, p0) =
∫dy
2π~〈x0 +
y
2|ψ〉〈ψ|x0 −
y
2〉e−ip0y/~
dove |x〉 è l’autostato (generalizzato) della posizione con
autovalore x. Integrando in p0 siottiene ∫
dp0W (x0, p0) =
∫dy δ(y)〈x0 +
y
2|ψ〉〈ψ|x0 −
y
2〉 = |ψ(x0)|2
L’integrale su x0 è lievemente più complicato. Notiamo che se
P̂ è l’operatore impulso, si ha
e±iP̂ y/2~|x0〉 = |x0 ∓y
2〉
Allora se |p〉 è l’autostato dell’impulso con autovalore p, si
ottiene∫dx0W (x0, p0) =
∫dy dx0
2π~〈x0|eiP̂ y/2~|ψ〉〈ψ|eiP̂ y/2~|x0〉e−ip0y/~ =
=
∫dy
2π~e−ip0y/~tr
(eiP̂ y/~|ψ〉〈ψ|
)=
=
∫dy
2π~e−ip0y/~〈ψ|eiP̂ y/~|ψ〉 =
=
∫dy
2π~e−ip0y/~
∫dp〈ψ|eiP̂ y/~|p〉〈p|ψ〉 =
=
∫dp |ψ̃(p)|2δ(p− p0) =
= |ψ̃(p0)|2
W è nota come distribuzione di quasiprobabilità di Wigner. Si
noti che W è reale, infatti
W (x0, p0)∗ =
∫dy
2π~〈ψ|x0 +
y
2〉〈x0 −
y
2|ψ〉eip0y/~ = W (x0, p0)
Purtroppo esistono stati su cui W non è positiva per ogni
valore dei suoi argomenti. Questoè il motivo per cui è chiamata
quasiprobabilità. Se invece di uno stato puro consideriamo
36
-
una mistura caratterizzata da una matrice densità ρ̂, basta
osservare che W è lineare neiprodotti esterni |ψ〉〈ψ|, quindi
avremo
Wρ̂(x0, p0) =
∫dy
2π~〈x0 +
y
2|ρ̂|x0 −
y
2〉e−ip0y/~
Vediamo adesso alcuni esempi. Per un pacchetto gaussiano della
forma
ψd(x) =1
π1/4√le−(x−d)
2/2l2
si ha
Wd(x0, p0) =
∫ +∞−∞
dy
2π~ψ(x0 +
y
2
)ψ∗(x0 −
y
2
)e−ip0y/~ =
=
∫ +∞−∞
dy
2π3/2~lexp
[− ip0y
~− 1
2l2
(x0 − d−
y
2
)2− 1
2l2
(x0 − d+
y
2
)2]=
=1
π~exp
(−(x0 − d)
2
l2− p0l
2
~2
)In questo caso per pura fortuna abbiamo W (x0, p0) ≥ 0.
Consideriamo invece un doppiopacchetto gaussiano della forma
|ϕ〉 = α(|ψd〉+ |ψ−d〉)
dove α è una costante di normalizzazione. In tal caso si
ottiene
W (x0, p0) = |α|2∫
dy
2π~
(〈x0 +
y22|ψd〉〈ψd|x0 −
y
2〉+ 〈x0 +
y22|ψ−d〉〈ψ−d|x0 −
y
2〉+
+ 〈x0 +y22|ψd〉〈ψ−d|x0 −
y
2〉+ 〈x0 +
y22|ψ−d〉〈ψd|x0 −
y
2〉)
=
= |α|2(Wd(x0, p0) +W−d(x0, p0)) + |α|2∫ +∞−∞
dy
2π~e−ip0y/~
[ψd
(x0 +
y
2
)ψ∗−d
(x0 −
y
2
)+
+ ψ∗d
(x0 +
y
2
)ψ−d
(x0 −
y
2
)]=
= |α|2(Wd(x0, p0) +W−d(x0, p0)) + 2|α|2 exp
(−(x0 − d)
2
2l2− (x0 + d)
2
2l2+ l2
(d
2l2− ip0
~
)2)Si osserva quindi la presenza di un termine di
”intereferenza” rispetto alla semplice som-ma delle
quasiprobabilità. In effetti, la somma delle quasiprobabilità è
proporzionale alladistribuzione di quasiprobabilità della
mistura
ρ̂ =|ψd〉〈ψd|+ |ψ−d〉〈ψ−d|
2
3.9 Dinamica in una dimensione
Consideriamo l’equazione di Schrödinger in una dimensione
− ~2
2m
∂2ψ
∂x2(x, t) + V (x)ψ(x, t) = i~
∂ψ
∂tx, t
dove si è supposto che l’Hamiltoniana sia della forma
Ĥ =p̂2
2m+ V (x̂)
37
-
Un metodo semplice per trovare la soluzione cosiste nel trovare
gli autostati di Ĥ. Se infattiabbiamo la decomposizione
Ĥ =
∫dE E|E〉〈E|+
∑j
εj |ej〉〈ej |
Allora ogni stato |ψ〉 può essere scritto nella forma
|ψ〉 =∫
dE ψE |E〉+∑j
ψj |ej〉
doveψE = 〈E|ψ〉, ψj = 〈ej |ψ〉
L’evoluzione di questo stato è calcolabile in maniera
immediata
|ψ(t)〉 =∫
dE e−iEt/~ψE |E〉+∑j
e−iεjt/~ψj |ej〉
Possiamo dunque limitarci a risolvere l’equazione di
Schrödinger stazionaria
Ĥ|α〉 = Eα|α〉
che in rappresentazione delle x significa
− ~2
2m
d2α
dx2= (Eα − V (x))α
Possiamo distinguere due comportamenti tipici dell’equazione
precedente. Nelle regioni incui V (x) < E (chiamate regioni
classicamente accessibili), α e α′′ hanno segno opposto:
ciaspettiamo quindi delle soluzioni in qualche modo oscillanti.
Viceversa, nelle regioni in cuiV (x) > E (chiamate regioni
classicamente proibite) α e α′′ hanno lo stesso segno, quindi
ciaspettiamo soluzioni esponenziali. Prendiamo ad esempio una
particella libera. In tal caso
− ~2
2m
d2α
dx2= Eα
Per E ≥ 0, posto
k =
√2mE
~la soluzione è della forma
α(x) = Aeikx +Be−ikx
dove A e B sono coefficienti complessi. La soluzione dipende
quindi da quattro parametrireali, ma due di essi sono fissati dalla
normalizzazione e dalla fase globale della soluzione. Intotale
abbiamo quindi due parametri reali indipendenti, come atteso per
un’equazione delsecondo ordine. Viceversa, per E < 0, posto
k =
√2m|E|~
la soluzione èα(x) = Aekx +Be−kx
38
-
Queste soluzioni non sono accettabili, dato che non appartengono
a S†. Consideriamo adessouna barriera di potenziale del tipo
V (x) =
{0 per x < 0 e x > x0
V0 per 0 < x < x0
Limitiamoci al caso 0 < E < V0. In tal caso, posto
k =
√2mE
~, q =
√2m(V0 − E)
~
abbiamo una soluzione del tipo
α(x) =
Aeikx +Be−ikx per x < 0
A′eqx +B′e−qx per 0 < x < x0
A′′eikx +B′′e−ikx per x > x0
dove dobbiamo raccordare i diversi pezzi imponendo che α e α′
siano continue in x = 0e x = x0. Vediamo quindi che è possibile
che un’onda incidente da sinistra possa esseretrasmessa (in parte)
al di là della barriera. Questo fenomeno, che non ha un analogo
classico,è noto come effetto tunnel. Consideriamo infine un
potenziale qualunque asintoticamentepiatto e siano
V1 = limx→−∞
V (x), V2 = limx→+∞
V (x)
Per fissare le idee, consideriamo il caso V2 < V1, come in
figura 1.
Figura 1: potenziale generico.
39
-
Possiamo immaginare di discretizzare il potenziale e di
considerarlo costante a tratti, perpoi raccordare le soluzioni.
Supponendo di avere N tratti in cui il potenziale è
costante,abbiamo diversi casi:
• se E > V1, l’andamento è oscillante a grandi distanze sia
a destra che a sinistra.La soluzione dipende quindi da 2N parametri
complessi, mentre abbiamo 2(N − 1)condizioni di raccordo. In totale
abbiamo 2 parametri complessi, che diventano 2parametri reali se
aggiungiamo il vincolo di normalizzazione e trascuriamo la
faseglobale.
• Se V2 < E < V1, a sinistra a grandi distanze abbiamo un
andamento esponenziale.Dobbiamo scartare l’esponenziale che diverge
in tale regione, quindi in totale abbiamo2N − 1 parametri
complessi. Considerando i vari raccordi e le altre condizioni,
inquesto caso la soluzione ha un solo grado di libertà.
• Se E < V2, anche a destra abbiamo un andamento
esponenziale. In totale abbiamoquindi 2N − 2 parametri complessi, e
quindi in questo caso la soluzione non ha gradidi libertà. Questo
significa che le soluzioni in tale regione sono in generale non
norma-lizzabili. Solo alcune volte otteniamo soluzioni che
rappresentano stati fisici, quindi inquesto caso ci aspettiamo uno
spettro discreto dell’Hamiltoniana.
3.10 Oscillatore armonico quantistico
Consideriamo un sistema descritto dall’Hamiltoniana
Ĥ =p̂2
2m+
1
2mω2q̂2
Se definiamo gli operatori
â =
√~
2mωq̂ +
i√2m~ω
p̂, ↠=
√~
2mωq̂ − i√
2m~ωp̂
detti rispettivamente operatore di abbassamento (o di
distruzione) e di innalzamento (o dicreazione), si può
scrivere
H = ~ω(â†â+
1
2
)Inoltre, si può calcolare
[â, â†] = 1
L’operatore â†â è chiaramente positivo, dunque su un
qualunque stato |ψ〉 si ha
〈ψ|Ĥ|ψ〉 ≥ 12~ω (2)
Alternativamente, usando la parità del potenziale si trova che
su un qualunque autostato|E〉 dell’Hamiltoniana si ha
〈E|q̂|E〉 = 0, 〈E|p̂|E〉 = 0
Infatti la funzione d’onda ψE(x) = 〈x|E〉 è pari o dispari,
quindi |ψE(x)|2 x e ψE(x)∂xψE(x)sono funzioni dispari e il loro
integrale sull’asse reale si annulla. Di conseguenza, se ∆2x e
40
-
∆2p sono le varianze della posizione e dell’impulso, usando il
principio di indeterminazionesi ottiene
〈E|Ĥ|E〉 = 12m
∆2p+1
2mω2∆2q ≥ ~
2
8m
1
∆2q+
1
2mω2∆2q
Il minimo della funzione a destra è proprio ~ω/2 e si ottiene
per ∆2q = ~/(2mω). L’energia
E0 =1
2~ω
è detta energia di punto zero, e come vedremo tra poco è
l’energia del fondamentale. Si notiora che
[Ĥ, â] = −~ωâ, [Ĥ, â†] = ~ωâ†
quindi su un qualunque stato |ψ〉 si ha
Ĥâ|ψ〉 = â(Ĥ − ~ω)|ψ〉, Ĥâ†|ψ〉 = â†(Ĥ + ~ω)|ψ〉
In particolare, se |ψ〉 è un autostato di Ĥ a energia E, allora
anche â|ψ〉 e â†|ψ〉 sono autostatidi Ĥ, con energie
rispettivamente E−~ω e E+~ω. Tuttavia, a causa della disuguaglianza
2non possiamo sperare di ottenere sempre nuo