William J. Bennett - O livro das virtudes para Crianças.pdf
linear-algebra.pdf
1. Universidade Federal de Santa Maria
Centro de Ciências Naturais e Exatas
Programa de Pós-Graduação em Física
Grupo de Teoria da Matéria Condensada
Álgebra Linear
Jonas Maziero
Santa Maria - RS, Maio de 2012
1 / 63
2. Referências
M. A. Nielsen e I. L. Chuang, Quantum Information and
Quantum Computation (Cambridge University Press,
Cambridge, 2000);
A. F. R. de Toledo Piza, Mecânica Quântica (Edusp, São
Paulo, 2009).
2 / 63
3. Sumário ±σ
Espaços Vetoriais;
Independência Linear e Bases; Produto Interno;
Procedimento de Gram-Schmidt;
Desigualdade de Cauchy-Schwarz;
Operadores Lineares e Matrizes;
Produto Externo e a Relação de Completeza;
Autovalores e Autovetores;
O Adjunto de um Operador;
Operadores Hermitianos; Projetores;
Operador Normal; Operador Unitário;
Produto Tensorial;
Funções de Operadores;
Comutadores e Anticomutadores;
· · · .
3 / 63
4. Números Complexos
Dados dois números reais a, b ∈ R quaisquer, então
z := a + ib ∈ C é um número complexo, onde i =
√
−1.
Partes real Rez = a ∈ R e imaginária Imz = b ∈ R do
número complexo z;
Conjugado de um número complexo: z∗ := a − ib ∈ C;
Dados z := a + ib ∈ C e z̃ := ã + ib̃ ∈ C com a, b, ã, b̃ ∈ R
temos:
z = z̃ ⇒ a = ã e b = b̃;
z ± z̃ := (a ± ã) + i(b ± b̃);
zz̃ = (a + ib)(ã + ib̃) = aã + iab̃ + ibã − bb̃;
z
z̃
:=
z
z̃
z̃∗
z̃∗
=
zz̃∗
ã2 + b̃2
.
Módulo de um número complexo:
|z| :=
√
zz∗ =
p
a2 + b2;
4 / 63
5. Plano Complexo (plano de Argand-Gauss)
Números complexos podem
ser representados como
pontos no plano Cartesiano
(veja a Figura ao lado).
Temos então
cos θ =
a
|z|
e sin θ =
b
|z|
.
Assim
z = a + ib
= |z|(cos θ + i sin θ)
= |z| exp(iθ),
com 0 ≤ θ < 2π e
0 ≤ |z| < ∞.
Também
θ = arctan(b/a).
5 / 63
6. Álgebra Linear
É o estudo de espaços vetoriais e operações lineares nesses
espaços.
Um Espaço Vetorial é um conjunto de objetos que têm
certas propriedades (veja a próxima transparência)
Exemplo. Cn: conjunto de todas as listas de números
complexos (zi ∈ C)
(z1, · · · , zn)
Cada objeto (lista) desse conjunto é um vetor.
Notação matricial (matriz coluna)
|vi =
v1
.
.
.
vn
onde vi ∈ C
|rótuloi é a notação de Dirac para vetores, muito utilizada
em Mecânica Quântica.
6 / 63
7. Propriedades de um Espaço Vetorial (Cn
)
1 Existe a operação de adição de objetos.
Para |vi = (v1, · · · , vn) ∈ Cn e |ui = (u1, · · · , un) ∈ Cn
|vi + |ui :=
v1 + u1
.
.
.
vn + un
∈ Cn
2 Existe a operação multiplicação por escalar.
Para |vi = (v1, · · · , vn) ∈ Cn e z ∈ C
z
v1
.
.
.
vn
:=
zv1
.
.
.
zvn
∈ Cn
3 Existe o elemento nulo 0 := | i.
|vi + | i := |vi ∀|vi
Para |vi = (v1, · · · , vn) ∈ Cn e | i = (0, · · · , 0) ∈ Cn
7 / 63
8. Independência Linear e Bases
Definição. Um conjunto de vetores {|vii} é linearmente
independente (LI) se
P
i ci|vii = | i implica em ci = 0 ∀i.
Definição. Um conjunto de vetores LI {|vii}dimV
i=1 ∈ V é uma
base para um espaço vetorial V se qualquer vetor |vi ∈ V pode
ser escrito como uma combinação linear
|vi =
dimV
X
i=1
ci|vii.
Exemplo. Os autoestados de σz
,
|0i = (1, 0); |1i = (0, 1),
formam uma base para C2
:
|vi = (v1, v2) = v1|0i + v2|1i.
Existem infinitas outras bases. e.g. os autoestados de σx
:
|+i = 2−1/2
(1, 1); |−i = 2−1/2
(1, −1).
8 / 63
9. Produto interno
Uma função (·, ·) : VxV → C é um produto interno se satisfaz os
seguintes requerimentos
1 É linear no segundo argumento:
(|vi,
X
i
ci|wii) =
X
i
ci(|vi, |wii), onde ci ∈ C;
2 (|vi, |wi) = (|wi, |vi)
∗
;
3 (|vi, |vi) ≥ 0 com igualdade se e somente se |vi = | i.
Produto interno para Cn
:
(|vi, |wi) ≡ hv|wi := |vi†
|wi =
v∗
1 · · · v∗
n
w1
.
.
.
wn
=
X
i
v∗
i wi
Espaço de Hilbert H:
Espaço vetorial Cn equipado com um produto interno (|vi, |wi).
9 / 63
10. Teorema
O produto interno é linear-conjugado no primeiro argumento,
i.e., dados ci ∈ C e |vii, |wi ∈ V vem que
(
X
i
ci|vii, |wi) =
X
i
c∗
i (|vii, |wi).
Demonstração
(
X
i
ci|vii, |wi) = (|wi,
X
i
ci|vii)∗
=
X
i
ci(|wi, |vii)
!∗
=
X
i
c∗
i (|wi, |vii)∗
=
X
i
c∗
i (|vii, |wi)
10 / 63
11. Algumas Definições
Dois vetores |vi e |wi são ortogonais se seu produto
interno é nulo, i.e., se
(|vi, |wi) = 0.
A norma (“comprimento”) de um vetor |vi é definida como
|||vi|| :=
p
(|vi, |vi)
Vetor unitário ou normalizado:
|||vi|| = 1.
Para ∀|vi,se definimos |ṽi :=
|vi
|||vi||
, −1cm então |||ṽi|| = 1.
Um conjunto de vetores {|vii} é ortonormal se
(|vii, |vji) = δij.
11 / 63
12. Procedimento de Gram-Schmidt
Dada uma base {|wii}dimV
i=1 ∈ V de vetores linearmente
independentes, obtemos uma base ortonormal {|vii}dimV
i=1 ∈ V
definindo
|v1i :=
|w1i
|||w1i||
e, para 1 ≤ k ≤ dimV − 1, definindo
|vk+1i :=
|wk+1i −
Pk
i=1(|vii, |wk+1i)|vii
|||wk+1i −
Pk
i=1(|vii, |wk+1i)|vii||
.
12 / 63
13. Desigualdade de Cauchy-Schwarz (DCS)
Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta
que |(|vi, |wi)|2 ≤ (|vi, |vi)(|wi, |wi)
Prova. Partimos do fato que (|ψi, |ψi) ≥ 0 e definimos
|ψi := |vi + z|wi, com z ∈ C. Assim
(|ψi, |ψi) = (|vi, |vi)+z(|vi, |wi)+z∗
(|wi, |vi)+|z|2
(|wi, |wi) ≥ 0
Agora, se |wi = | i então |(|vi, | i)|2 = 0 = (|vi, |vi)(| i, | i)
e a DCS é satisfeita. Por outro lado, se |wi 6= | i definimos
z := −(|wi, |vi)/(|wi, |wi)
e resulta que
(|vi, |vi) −
(|wi, |vi)
(|wi, |wi)
(|vi, |wi) −
(|wi, |vi)∗
(|wi, |wi)
(|wi, |vi) +
|(|wi, |vi)|2
(|wi, |wi)2
(|wi, |wi) ≥ 0
(|wi, |wi)(|vi, |vi) − |(|vi, |wi)|2
− |(|wi, |vi)|2
+ |(|wi, |vi)|2
≥ 0
∴ (|wi, |wi)(|vi, |vi) ≥ |(|wi, |vi)|2
13 / 63
14. Temos ainda que (|wi, |wi)(|vi, |vi) = |(|wi, |vi)|2
se e somente se |vi ∝ |wi.
Prova. Assumimos |vi ∝ |wi = c|wi. Então (|vi, |vi) = |c|2
(|wi, |wi) e
|(|vi, |wi)|2
= |c|2
(|wi, |wi)2
, o que implica que
(|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2
.
Agora assumimos que (|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2
e |||wi|| 6= 0. Usamos
o procedimento de Gram-Schmidt para construir uma base ortonormal
{|wii}dimV
i=1 com |w1i := |wi/|||wi||. Podemos escrever |vi =
PdimV
i=1 ci|wii.
Assim
(|vi, |vi) = (
dimV
X
i=1
ci|wii,
dimV
X
i=1
cj|wji) =
dimV
X
i,j=1
c∗
i cj
δij
z }| {
(|wii, |wji) =
dimV
X
i=1
|ci|2
e
|(|vi, |wi)|2
= |(
dimV
X
i=1
ci|wii, |||wi|||w1i)|2
= |||wi||2
dimV
X
i=1
|ci|2
|
δi1
z }| {
(|wii, |w1i)|2
= |||wi||2
|c1|2
.
Com isso vem que
|||wi||2
dimV
X
i,j=1
|ci|2
− |c1|2
= 0
e portanto ci = 0 se i 6= 1 e consequentemente |vi ∝ |wi.
14 / 63
15. Operadores Lineares
Um operador linear entre espaços vetoriais V e W é qualquer
função (mapa) A : V → W que é linear em seu domínio, i.e.
A
X
i
ci|vii
!
=
X
i
ciA(|vii)
Dizemos que um operador linear A está definido em V se
A : V → V.
Dois operadores lineares importantes:
Operador identidade em V:
IV|vi := |vi para todo |vi ∈ V.
Operador zero em V:
0V|vi := | i para todo |vi ∈ V.
15 / 63
16. Matrizes como Operadores Lineares
Uma matriz complexa {Aij} é um mapa
{Aij}mxn : Cn
→ Cm
.
Explicitamente (Amxnv1xn = w1xm):
A11 A12 · · · A1n
A21 A22 · · · A2n
.
.
.
.
.
.
...
.
.
.
Am1 Am2 · · · Amn
v1
v2
.
.
.
vn
=
w1
w2
.
.
.
wm
onde
wi =
n
X
j=1
Aijvj
Dizer que uma matriz A é um operador linear significa que
A
X
i
ci|vii
!
=
X
i
ciA(|vii)
16 / 63
17. Linearidade de Matrizes
Consideremos A = {Aij}, |vi = {vi} e |wi = {wi}. Definimos
ainda
|xi := a|vi + b|wi = {xi} = {avi + bwi}.
Assim
(A|xi)i =
X
j
Aijxj
=
X
j
Aij(avj + bwj)
= a
X
j
Aijvj + b
X
j
Aijwj
= a(A|vi)i + b(A|wi)i.
Ou seja,
A|xi = A(a|vi + b|wi)
= aA(|vi) + bA(|wi)
17 / 63
18. Operadores Lineares como Matrizes
Consideremos um operador linear A : V → W e bases de
vetores {|vii}m
i=1 ∈ V e {|wji}n
j=1 ∈ W. Para cada i existem
{Aji}n
j=1 ∈ C tal que
A|vii =
n
X
j=1
Aji|wji.
A matriz {Aji}mxn é uma representação matricial para o
operador linear A.
OBS. Para fazer a conexão entre matrizes e operadores
lineares devemos especificar as bases de entrada (domínio) e
saída (imagem) para o operador linear A e também devemos
especificar como A atua na sua base domínio.
Resumindo. Os pontos de vista de operadores lineares e de
matrizes são equivalentes.
18 / 63
19. Matrizes de Pauli. σ0
:= I
Vamos considerar V = W = C2 e uma base (base
computacional)
|0i :=
1
0
, |1i :=
0
1
Representação matricial para I := σ0:
σ0
|0i = σ0
11|0i + σ0
21|1i
σ0
|1i = σ0
12|0i + σ0
22|1i
Ação de σ0:
σ0
|0i = |0i e σ0
|1i = |1i.
Ou seja
σ0
=
1 0
0 1
.
19 / 63
20. Matrizes de Pauli. σ1
:= σx
Representação matricial para σx := σ1 := X:
σ1
|0i = σ1
11|0i + σ1
21|1i
σ1
|1i = σ1
12|0i + σ1
22|1i
Ação de σ1 (porta lógica NOT da computação clássica e
quântica):
σ1
|0i = |1i e σ1
|1i = |0i.
Ou seja
σ1
=
0 1
1 0
,
que tem autovalores ±1 e autovetores
| ↑xi = 2−1/2
(|0i + |1i)
| ↓xi = 2−1/2
(|0i − |1i)
20 / 63
21. Matrizes de Pauli. σ2
:= σy
Representação matricial para σy := σ2 := Y:
σ2
|0i = σ2
11|0i + σ2
21|1i
σ2
|1i = σ2
12|0i + σ2
22|1i
Ação de σ2:
σ2
|0i = exp(iπ/2)|1i e σ2
|1i = exp(−iπ/2)|0i.
Ou seja1
σ2
=
0 −i
i 0
,
com i =
√
−1. Temos que σ2 tem autovalores ±1 e autovetores
| ↑yi = 2−1/2
(|0i + i|1i)
| ↓yi = 2−1/2
(|0i − i|1i)
1
Relação de Euler: exp(iθ) = cos(θ) + i sin(θ)
21 / 63
22. Matrizes de Pauli. σ3
:= σz
Representação matricial para σz := σ3 := Z:
σ3
|0i = σ3
11|0i + σ3
21|1i
σ3
|1i = σ3
12|0i + σ3
22|1i
Ação de σ3:
σ3
|0i = |0i e σ3
|1i = exp(iπ)|1i.
Ou seja
σ3
=
1 0
0 −1
,
com i =
√
−1. Temos que σ2 tem autovalores ±1 e
autovetores
| ↑zi = |0i
| ↓zi = |1i
22 / 63
23. Representação Matricial para Operadores Compostos
Consideremos operadores lineares A : V → W e B : W → X e
bases {|vii} ∈ V, {|wji} ∈ W e {|xki} ∈ X. Questão. Qual a
representação matricial para a transformação linear
B(A(·)) = B ◦ A(·)?
Temos que
A(|vii) =
X
j
Aji|wji
Então
B(A(|vii) =
X
j
AjiB(|wji)
=
X
j
Aji
X
k
Bkj|xki
=
X
k
X
j
BkjAji|xki
=
X
k
(BA)ki|xki
23 / 63
24. Operador Produto Externo e a Relação de Completeza
Produto Externo. Consideremos |vi, |ṽi ∈ V e |wi ∈ W. O operador linear
produto externo |wihv| : V → W é definido como
|wihv|(|ṽi) = |wi(|vi, |ṽi) = (|vi, |ṽi)|wi
Assim, para {|vii}, |ṽi ∈ V e {|wii} ∈ W, a combinação linear
P
i ai|wiihvi| é
um operador linear que atua da seguinte forma
X
i
ai|wiihvi|(|ṽi) =
X
i
ai(|vii, |ṽi)|wii.
Relação de Completeza. Consideremos uma base ortonormal {|ji}dimV
j=1 ∈ V.
Qualquer vetor |vi ∈ V pode ser escrito como |vi =
P
j vj|ji, com
vj = (|ji, |vi) ∈ C. Assim vem que
dimV
X
j=1
|jihj|(|vi) =
dimV
X
j=1
|ji(|ji, |vi) =
dimV
X
j=1
vj|ji = |vi,
ou seja
dimV
X
j=1
|jihj| = IV.
24 / 63
25. Outra Demonstração da Desigualdade de Cauchy-Schwarz
Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta que
|(|vi, |wi)|2
≤ (|vi, |vi)(|wi, |wi)
Prova. Usamos o procedimento de Gram-Schmidt para construir uma base
ortonormal {|ji} e definimos
|1i :=
|wi
|||wi||
.
Utilizando a relação de completeza
P
j |jihj| = I escrevemos
(|vi, |vi)(|wi, |wi) = (|vi, I(|vi))(|wi, |wi) = (|vi,
X
j
|jihj|(|vi))(|wi, |wi)
= (|vi,
X
j
|ji(|ji, |vi))(|wi, |wi)
=
X
j
(|ji, |vi)(|vi, |ji)(|wi, |wi) =
X
j
|(|vi, |ji)|2
(|wi, |wi)
≥ |(|vi, |1i)|2
(|wi, |wi)
:=
|(|vi, |wi)|2
|||wi||2
(|wi, |wi)
= |(|vi, |wi)|2
25 / 63
26. Representação de Operadores como Produto Externo
Consideremos A : V → W e bases ortonormais {|vii}dimV
i=1 ∈ V e
{|wji}dimW
j=1 ∈ W.
Representação de A na forma produto externo
A = IWAIV
=
dimW
X
j=1
|wjihwj|
A
dimV
X
i=1
|viihvi|
!
=
dimW
X
j=1
dimV
X
i=1
(|wji, A|vii)|wjihvi|
Representação matricial de A
Aji := (|wji, A|vii)
são os elementos na linha j e coluna i.
Exemplo. Matriz de Pauli σx
σx
= |0ih1| + |1ih0|.
26 / 63
27. Autovalores e Autovetores
Os autovetores de um operador linear A são vetores não nulos
|vi ∈ V tais que
A|vi = v|vi,
e v ∈ C são os autovalores de A.
Autovalores (equação característica):
(A − vI)|vi = | i ∴ (A − vI)−1
(A − vI)|vi = | i ∴ |vi = | i. Portanto
det(A − λI) = 0
Autovetores
(A − λI)|vi = | i
Representação diagonal (decomposição ortonormal) de A em V:
A =
X
i
λi|iihi|,
onde {|ii}dimV
i=1 é uma base ortonormal para V.
Degenerescência. Um autovalor tem dois ou mais autovetores
correspondentes.
27 / 63
28. Adjunto de um Operador
Dado um operador linear A : H → H, existe um único operador
linear A† tal que, para todo |vi, |wi ∈ H,
(|vi, A|wi) = (A†
|vi, |wi).
A† é conhecido com o adjunto (ou Hermitiano conjugado) de
A.
Alguns resultados e definições:
A†
†
= A;
(A|vi, |wi) = (|wi, A|vi)∗
= (A†
|wi, |vi)∗
= (|vi, A†
|wi) = ((A†
)†
|vi, |wi)
(AB)†
= B†
A†
(|vi, AB|wi) = (A†
|vi, B|wi) = (B†
A†
|vi, |wi) = ((AB)†
|vi, |wi);
Dado um vetor |vi define-se hv| := |vi†
. Então (A|vi)†
= hv|A†
;
(|vihw|)†
= |wihv|;
28 / 63
29. (
P
i aiAi)†
=
P
i a∗
i A†
i
Prova. Dados ai ∈ C, A : H → H e |vi, |wi ∈ H, temos que
(|vi,
X
i
aiAi|wi) =
X
i
ai(|vi, Ai|wi); ((·,·) é linear no 2o
argumento)
=
X
i
ai(A†
i |vi, |wi)
= (
X
i
a∗
i A†
i |vi, |wi); ((·,·) é anti-linear no 1o
argumento)
= ((
X
i
aiAi)†
|vi, |wi)
A† = (AT)∗ = (A∗)T. Ex.
A =
a11 a12 · · ·
a21 a22 · · ·
· · · · · ·
...
⇒ A†
=
a∗
11 a∗
21 · · ·
a∗
12 a∗
22 · · ·
· · · · · ·
...
29 / 63
30. Operadores Hermitianos
Um operador é dito Hermitiano (ou auto-adjunto) se
A†
= A
Operadores Hermitianos tem autovalores reais (A|ai = a|ai)
(|ai, A|ai) = (|ai, a|ai) = a(|ai, |ai) = a
= (A†
|ai, |ai) = (A|ai, |ai) = (a|ai, |ai)
= a∗
(|ai, |ai) = a∗
Portanto a = a∗
⇒ a ∈ R.
Os autovetores de um operador Hermitiano correspondentes a
autovetores diferentes são ortogonais. Consideremos
A|ai = a|ai e A|bi = b|bi com a 6= b.
(|ai, A|bi) = (|ai, b|bi) = b(|ai, |bi)
= (A†
|ai, |bi) = (A|ai, |bi) = a(|ai, |bi)
Portanto (a − b)(|ai, |bi) = 0 ⇒ (|ai, |bi) = 0.
30 / 63
31. Projetores
Consideremos uma base {|ji}dimW
j=1 ∈ W, sendo W um
subespaço do espaço vetorial V. Assim, podemos construir
uma base {|ji}dimV
j=1 ∈ V com dimV ≥ dimW. Por definição
P :=
dimW
X
j=1
|jihj|
é um projetor no subespaço W.
P†
= P; (P|pi = p|pi com p ∈ R)
P2
= P; (P|pi = P2
|pi = p2
|pi ⇒ p2
= p ⇒ p = 0, 1)
P + Q = IV com
Q =
dimV
X
j=dimW+1
|jihj|
sendo o complemento ortonormal de P.
31 / 63
32. Operador Normal
Um operador A é dito normal se
AA†
= A†
A.
Se um operador A é Hermitiano (A†
= A) então A é normal (A†
A = AA).
Teorema (Decomposição Espectral). Dado A : V → V, resulta que A é
normal se e somente se existir uma base ortonormal de V na qual A é
diagonal.
Prova. Iniciamos assumindo que existe uma base ortonormal {|aii}
na qual A é diagonal, i.e., A =
P
i ai|aiihai|. Segue então que
AA†
= (
X
i
ai|aiihai|)(
X
j
aj|ajihaj|)†
=
X
i
X
j
aia∗
j |aii
δij
z }| {
(|aii, |aji)haj|
=
X
i
a∗
i ai|aiihai| =
X
j
X
i
a∗
j ai|aji(|aji, |aii)hai|
= (
X
j
aj|ajihaj|)†
(
X
i
ai|aiihai|)= A†
A
32 / 63
33. Agora assumimos que A é normal, i.e., AA† = A†A.
Seja ai um autovetor de A e P o projetor no auto-espaço de ai
(Vi) e seja Q o projetor no complemento ortonormal de P, ou
seja, P + Q = IV. Assim
A = IVAIV = (P + Q)A(P + Q)
= PAP
|{z}
=aiP
+ PAQ + QAP
| {z }
=aiQP=0
+ QAQ
Como A é normal, dado um vetor |vi ∈ Vi, vem que
AA†
|vi = A†
A|vi = aiA†
|vi.
Ou seja, A†|vi é um elemento de Vi. Então
(PAQ)†
= Q†
A†
P†
= QA†
P
|{z}
∈Vi
= 0 ⇒ ((PAQ)†
)†
= PAQ = 0
33 / 63
34. Portanto
A = PAP + QAQ.
Lembrando A : V → V. Assim, dada uma base {|vji}dimV
j=1 ∈ V,
podemos escrever
A =
dimV
X
j,k=1
Ajk|vjihvk|
com
Ajk := (|vji, A|vki).
Percebe-se por conseguinte que PAP e QAQ são
diagonais com relação a uma base ortonormal do
subespaço P e Q, respectivamente.
Portanto A é diagonal em uma base do espaço total V,
completando assim a prova.
34 / 63
35. Operadores Positivos
Um operador A é dito positivo (notação A ≥ 0) se
(|vi, A|vi) ≥ 0 ∀|vi.
Se (|vi, A|vi) 0 ∀|vi 6= | i, então A é dito positivo definido.
Um operador positivo (A ≥ 0) é necessariamente Hermitiano
(A = A†).
A†A é positivo (A†A ≥ 0) para qualquer operador linear A.
Prova. Definindo A|vi := |wi temos
(|vi, A†
A|vi) = (A|vi, A|vi) = (|wi, |wi) ≥ 0.
35 / 63
36. Operador Unitário
Um operador U é dito unitário se
U†
U = I = UU†
Operadores unitários preservam o produto interno:
(U|vi, U|wi) = (U†
U|vi, |wi) = (I|vi, |wi)=(|vi, |wi).
Os autovalores de um operador unitário (U|ui = u|ui) tem
módulo |u| = 1 e portanto podem ser escritos de maneira
geral como u = exp(iθ), com θ ∈ R.
(|ui, |ui) = 1
= (U|ui, U|ui) = (u|ui, u|ui) = |u|2
hu|ui = |u|2
⇒ |u| = 1
⇒ u = |u| exp(iθ) = exp(iθ)
36 / 63
40. Produto Tensorial
O produto tensorial é utilizado para tratar espaços vetoriais
utilizados na descrição de sistemas de muitos corpos a partir
dos espaços vetoriais de suas partes constituintes.
Consideremos dois espaços de Hilbert Ha
e Hb
e bases ortonormais
{|ia
i} ∈ Ha
e {|jb
i} ∈ Hb
com i = 1, · · · , dimHa
e j = 1, · · · , dimHb
. Uma base ortonormal
para o espaço produto tensorial Ha
⊗ Hb
é definida como
{|ia
i ⊗ |jb
i}.
Temos assim que dimHa
⊗ Hb
= dimHa
dimHb
.
Qualquer vetor |ψab
i ∈ Ha
⊗ Hb
pode ser escrito como
|ψab
i =
X
i,j
ci,j|ia
i ⊗ |jb
i,
com ci,j ∈ C.
40 / 63
41. Convenção
|ia
i ⊗ |jb
i ≡ |ia
i|jb
i ≡ |ia
, jb
i ≡ |ia
jb
i ≡ |iji.
Propriedades do Produto Tensorial
1 Para z ∈ C e |ψai ∈ Ha e |φbi ∈ Hb
z(|ψa
i ⊗ |φb
i) = (z|ψa
i) ⊗ |φb
i = |ψa
i ⊗ (z|φb
i)
2 Para |ψai, |ξai ∈ Ha e |φbi ∈ Hb
(|ψa
i + |ξa
i) ⊗ |φb
i = |ψa
i ⊗ |φb
i + |ξa
i ⊗ |φb
i
3 Para |ψai ∈ Ha e |φbi, |χbi ∈ Hb
|ψa
i ⊗ (|φb
i + |χb
i) = |ψa
i ⊗ |φb
i + |ψa
i ⊗ |χb
i
41 / 63
42. Operadores Lineares em Ha
⊗ Hb
Consideremos vetores |ψai ∈ Ha e |φbi ∈ Hb e operadores
lineares A : Ha → H̃a e B : Hb → H̃b. Define-se um operador
linear A ⊗ B : Ha ⊗ Hb → H̃a ⊗ H̃b como
A ⊗ B(|ψa
i ⊗ |φb
i) := A(|ψa
i) ⊗ B(|φb
i)
Linearidade de A ⊗ B
A ⊗ B(|Ψab
i) = A ⊗ B(
X
i,j
ci,j|ia
i ⊗ |jb
i) =
X
i,j
ci,jA(|ia
i) ⊗ B(|jb
i)
Para Aj : Ha
→ H̃a
e Bj : Hb
→ H̃b
, um operador linear
Cab
: Ha
⊗ Hb
→ H̃a
⊗ H̃b
pode ser representado de maneira
geral como
Cab
=
X
i,j
ci,jAi ⊗ Bj, com ci,j ∈ C.
Por definição
(
X
i,j
ci,jAi ⊗ Bj)(|ψa
i ⊗ |φb
i) :=
X
i,j
ci,jAi(|ψa
i) ⊗ Bj(|φb
i).
42 / 63
43. Produto interno e Produto de Kronecker
Produto interno para espaços produto tensorial
(|ψab
i, |φab
i) = (
X
j,k
cj,k|ja
i ⊗ |kb
i,
X
m,n
dm,n|ma
i ⊗ |nb
i)
:= |ψab
i†
|φab
i =
X
j,k
c∗
j,kdj,k.
Dadas matrizes {Ai,j}mxn e {Bk,l}p,q o produto de Kronecker é
definido como
A ⊗ B := mxp linhas
nxq colunas
z }| {
A11B A12B · · · A1nB
A21B A22B · · · A2nB
.
.
.
.
.
.
...
.
.
.
Am1B Am2B · · · AmnB
Notação: A⊗n
:=
nvezes
z }| {
A ⊗ · · · ⊗ A. Exemplo. A⊗2
= A ⊗ A.
43 / 63
44. Funções de Operadores
Dado um operador normal A com decomposição espectral
A =
X
a
a|aiha|,
uma função f : C → C desse operador é definida como
f(A) :=
X
a
f(a)|aiha|.
Exemplo.
exp(θσ1
) = exp(θ)| ↑xih↑x | + exp(−θ)| ↓xih↓x |
44 / 63
45. Dados ~
n ∈ R3 com ||~
n|| = 1, θ ∈ R e ~
σ = (σ1, σ2, σ3), segue que
exp(iθ~
n · ~
σ) = cos(θ)I + i sin(θ)~
n · ~
σ
Prova. Vamos utilizar as séries de Taylor,
f(x)|x0
=
∞
X
n=0
dnf(x)
dxn
x0
(x − x0)n
n!
,
para
exp(x)|0 = 1 + x +
x2
2
+
x3
3!
+
x4
4!
+
x5
5!
+ · · ·
cos(x)|0 = 1 −
x2
2
+
x4
4!
−
x6
6!
+ · · ·
sin(x)|0 = x −
x3
3!
+
x5
5!
−
x7
7!
+ · · ·
45 / 63
46. Mostremos que (~
n · ~
σ)2
= I.
(~
n · ~
σ)2
= (n1σ1
+ n2σ2
+ n3σ3
)(n1σ1
+ n2σ2
+ n3σ3
)
= n2
1(σ1
)2
+ n1n2σ1
σ2
+ n1n3σ1
σ3
+n1n2σ2
σ1
+ n2
2(σ2
)2
+ n2n3σ2
σ3
+n1n3σ3
σ1
+ n2n3σ3
σ2
+ n2
3(σ3
)2
= (n2
1 + n2
2 + n2
3)I
= I
Assim obtemos
exp(iθ~
n · ~
σ) = I + (iθ~
n · ~
σ) +
(iθ~
n · ~
σ)2
2
+
(iθ~
n · ~
σ)3
3!
+
(iθ~
n · ~
σ)4
4!
+
(iθ~
n · ~
σ)5
5!
+ · · ·
= I + iθ~
n · ~
σ −
θ2
2
I − i
θ3
3!
~
n · ~
σ +
θ4
4!
I + i
θ5
5!
~
n · ~
σ + · · ·
= (1 −
θ2
2
+
θ4
4!
− · · · )I + i(θ −
θ3
3!
+
θ5
5!
− · · · )~
n · ~
σ
= cos(θ)I + i sin(θ)~
n · ~
σ
46 / 63
47. A Função Traço
O traço de um operador A, numa certa representação matricial,
é definido como
tr(A) :=
X
j
Ajj
Propriedades da função traço
tr(AB) = tr(BA) (cíclico);
Prova. tr(AB) =
X
i
(AB)ii =
X
i
X
j
AijBji =
X
j
X
i
BjiAij
=
X
j
(BA)jj = tr(BA)
tr(A + B) = tr(A) + tr(B) (linear);
tr(zA) = ztr(A) com z ∈ C.
tr(UAU†
) = tr(U†
UA) = tr(A) (o traço não depende da base
utilizada na representação matricial de A);
tr(A ⊗ B) = (trA)(trB).
47 / 63
48. A Função Traço Parcial
Consideremos um operador linear Cab : Ha ⊗ Hb → Ha ⊗ Hb na
sua representação produto externo
Cab
= Ia
⊗ Ib
Cab
Ia
⊗ Ib
= (
X
i
|ia
ihia
|) ⊗ (
X
j
|jb
ihjb
|)Cab
(
X
k
|ka
ihka
|) ⊗ (
X
l
|lb
ihlb
|)
=
X
i,j,k,l
(|ia
ihia
| ⊗ |jb
ihjb
|)Cab
(|ka
ihka
| ⊗ |lb
ihlb
|)
=
X
i,j,k,l
|ia
i ⊗ |jb
i(hia
| ⊗ hjb
|Cab
|ka
i ⊗ |lb
i)hka
| ⊗ hlb
|
=
X
i,j,k,l
(hia
| ⊗ hjb
|Cab
|ka
i ⊗ |lb
i)|ia
i ⊗ |jb
ihka
| ⊗ hlb
|
:=
X
i,j,k,l
Cab
ij,kl|ia
ihka
| ⊗ |jb
ihlb
|
48 / 63
49. Um operador linear reduzido Ca : Ha → Ha pode ser obtido
através da operação de traço parcial sobre Hb (notação trb),
que é definida como
Ca
= trbCab
:=
X
m
hmb
|Cab
|mb
i
≡
X
i,k
X
m
Cab
im,km|ia
ihka
|
=
X
i,k
Ca
i,k|ia
ihka
|,
com
Ca
i,k :=
X
m
Cab
im,km
49 / 63
50. Espaço de Operadores Lineares e o
Produto Interno de Hilbert-Schmidt
O espaço formado por operador lineares L(H) : H → H também é
um espaço de Hilbert com produto interno definido como
(A, B) := tr(A†
B).
L(H) : H → H é uma espaço vetorial. Dados dois operadores
lineares A, B : H → H e {|vii} ∈ H, temos
1 (A+B)(
P
i ci|vii) = A(
P
i ci|vii)+B(
P
i ci|vii) =
P
i ci(A+B)(|vii);
2 (zA)(
P
i ci|vii) = z
P
i ciA(|vii);
3 A + oH = A com oH|vii = | i.
tr(A†
B) é um produto interno. Dados A, B : H → H e bi ∈ C, temos
1 (A,
P
j bjBj) = tr(A†
P
j bjBj) =
P
j bjtr(A†
Bj) =
P
j bj(A, Bj);
2 (A, B) = tr(A†
B) = tr(
P
i A∗
jiBik) =
P
j
P
i A∗
jiBij =
(
P
i
P
j B∗
ijAji)∗
= (tr(B†
A))∗
= (B, A)∗
;
3 (A, A) = tr(A†
A) ≥ 0.
50 / 63
51. Comutadores e Anticomutadores
O comutador entre dois operadores A e B é definido como
[A, B] ≡ [A, B]− := AB − BA.
Se AB = BA dizemos que A e B comutam.
O anti-comutador entre dois operadores A e B é definido
como
{A, B} ≡ [A, B]+ := AB + BA.
Se AB = −BA dizemos que A e B anticomutam.
Comutadores e Anti-comutadores das matrizes de Pauli (j, k = 1, 2, 3)
[σj
, σk
] = 2i
3
X
l=1
jklσl
{σj
, σk
} = 2δjkI
51 / 63
52. Comutadores de Operadores Hermitianos
Teorema. Dados dois operadores Hermitianos A e B, então
[A, B] = 0 se e somente se existir uma base ortonormal {|ji} na
qual A e B são diagonais, ou seja, A =
P
j aj|jihj| e
B =
P
j bj|jihj|.
Prova. Assumimos primeiramente que A e B são diagonais na
mesma base. Então
[A, B] = (
X
j
aj|jihj|)(
X
k
bk|kihk|) − (
X
k
bk|kihk|)(
X
j
aj|jihj|)
=
X
j,k
ajbk(|jihj|ki
|{z}
δjk
hk| − |kihk|ji
|{z}
δjk
hj|)
=
X
j
ajbj(|jihj| − |jihj|)
= 0
52 / 63
53. Agora assumimos que A e B comutam, ou seja,
[A, B] = 0 ⇒ AB = BA.
Seja {|aji} uma base de autovetores não degenerados de A
com autovalor ai, teremos
AB|aii = BA|aii = aiB|aii.
Portanto B|aii também é autovetor de A com autovalor ai. Isso
implica que
B|aii ∝ |aii = bi|aii.
Com isso vem que B também é diagonal na base {|aii}.
53 / 63
58. Outra prova. Define-se f(s) := esABe−sA. Então
f0
(s) = esA
[A, B]e−sA
f00
(s) = esA
[A, [A, B]]e−sA
f000
(s) = esA
[A, [A, [A, B]]]e−sA
.
.
.
Expansão de f(s) em série de Taylor em torno de s = 0:
f(s) = f(0) + sf0
(0) +
1
2!
s2
f00
(0) +
1
3!
s3
f000
(0) + · · ·
= B + s[A, B] +
1
2!
s2
[A, [A, B]] +
1
3!
s3
[A, [A, [A, B]]] + · · ·
Agora faz s = 1. Assim
eA
Be−A
= B + [A, B] +
1
2!
[A, [A, B]] +
1
3!
[A, [A, [A, B]]] + · · ·
58 / 63
59. Relação de Baker-Campbell-Housdorff
Dado que [A, [A, B]] = [B, [A, B]] = 0 então
eA+B
= eA
eB
e−[A,B]/2
Prova. Vamos definir C := exA
exB
com x sendo um escalar. Com isso
dC
dx
= exA
AexB
+ exA
BexB
e−xB
e−xA
exA
exB
= A + exA
Be−xA
C
= exA
exB
e−xB
e−xA
exA
AexB
+ exA
BexB
= C e−xB
AexB
+ B
Do lema de Hadamard, temos que exA
Be−xA
= B + x[A, B] e
e−xB
AexB
= A + x[A, B]. Por conseguinte
dC
dx
= (A + B + x[A, B]) C
= C (A + B + x[A, B])
59 / 63
60. Como [C, (A + B + x[A, B])] = 0 podemos resolver a equação anterior
como uma equação diferencial qualquer. Assim obtemos
C = exp(x(A + B) + x2
[A, B]/2)
= exA
exB
.
Mas
[x(A + B), x2
[A, B]/2] =
x3
2
([A, [A, B]] + [B, [A, B]])
:= 0.
Então
exp(x(A + B) + x2
[A, B]/2) = exp(x(A + B)) exp(x2
[A, B]/2)
e
ex(A+B)
= exA
exB
e−x2
[A,B]/2
.
Fazendo x = 1 concluímos a demonstração.
60 / 63
61. A Decomposição Polar
Dado um operador linear A : V → V, existe um operador
unitário U e operadores positivos J e K tais que
A = UJ = KU,
com J =
√
A†A e K =
√
AA†.
Prova.
J =
√
A†A ≥ 0 ⇒ J =
X
i
Ji|JiihJi| com (|Jii, |Jji) = δij.
Assumimos Ji 0 e definimos |aii := J−1
i A|Jii. Assim
(|aii, |aji) = J−1
i J−1
j (A|Jii, A|Jji)
= J−1
i J−1
j (A†
A|Jii, |Jji)
= J−1
j Jiδij
= δij
61 / 63
62. Definindo U :=
P
i |aiihJi| vemos que se Ji 0 então
UJ|Jii = Ji|aii = A|Jii.
Se Ji = 0 então
UJ|Jii = 0 = |aii.
Portanto a ação de A e de UJ na base {|Jii} é a mesma e por
conseguinte
A = UJ.
Podemos ver que J é unicamente definido fazendo
A†
A = (UJ)†
UJ = J†
U†
UJ = J2
⇒ J =
√
A†A.
Temos também que
A = UJ = UJU†
U = KU,
com K ≥ 0. Temos ainda que
AA†
= UJ(UJ)†
= UJJ†
U†
= UJU†
UJU†
= K2
⇒ K =
√
AA†.
62 / 63
63. A Decomposição em Valores Singulares
Dada uma matriz quadrada A, existem matrizes unitárias U e V
e uma matriz positiva e diagonal D tais que
A = UDV.
Os elementos de D são os valores singulares de A.
Prova. Da decomposição polar vem que
A = SJ,
sendo S unitária (SS†
= I = S†
S) e J positiva (J ≥ 0). Do teorema
espectral temos
J = TDT†
,
com T unitária e D diagonal e positiva. Assim, se definimos U := ST
e V := T†
obtemos
A = STDT†
:= UDV.
63 / 63