-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS)
2o semestre de 2015
1. Notação de aplicações e conjuntos
Sejam A e B dois conjuntos de natureza qualquer. Uma aplicação
f : A → B de A para B éuma lei pela qual a cada elemento a ∈ A
está associado um único elemento b ∈ B, denotado porb = f(a) e
chamado a imagem de a. Escreve-se também A
f−→ B. Dizemos que A é o domı́nio e B éo contra-domı́nio de f
. Note que, por definição, consideramos duas aplicações f : A →
B e g : A → Ccomo diferentes se os contra-domı́nios são
diferentes, isto é, B ̸= C, mesmo se a lei parece a mesma.Por
exemplo, denotando1 R := {r | r é um número real} e R+ := {r ∈ R
| r ≥ 0}, temos duas aplicaçõesf : R→ R, f : r 7→ r2, e g : R→
R+, g : r 7→ r2, que são diferentes embora dadas através da mesma
leir 7→ r2. (Escrevendo f : a 7→ b enfatizamos como f “age” sobre
elementos; isto é equivalente a escreverf(a) = b.)
Utilizamos a seguinte notação de conjuntos. O śımbolo ∅
denota o conjunto vazio, isto é, semelementos. (É razoável
imaginar um conjunto como um saco de coisas. Neste caso, o vazio é
um sacovazio.) Quando A está contido em B, ou seja, quando B
contém A, escrevemos A ⊂ B ou B ⊃ A.Para verificar que A ⊂ B,
precisa-se provar a implicação a ∈ A =⇒ a ∈ B. Dois conjuntos A e
B sãoconsiderados como iguais se eles têm os mesmos elementos. Em
outras palavras, A = B é equivalente aA ⊂ B e A ⊃ B. Por exemplo,
p ̸= {p} para qualquer conjunto p. Em particular, o conjunto {∅}
não évazio.
Sejam A e B conjuntos. Denotamos por A ∩ B a interseção de A e
B, isto é, A ∩ B := {x | x ∈ A,x ∈ B}. Denotamos por A ∪ B := {x |
x ∈ A ou x ∈ B} a união de A e B. Denotamos porA× B :=
{(a, b) | a ∈ A, b ∈ B
}o produto cartesiano de A e B. Este produto é formado por
todos os
pares ordenados (a, b), onde a ∈ A e b ∈ B. Não precisa saber o
que é um par ordenado. É suficientesaber apenas a propriedade que
caracteriza este conceito: (a, b) = (a′, b′)⇐⇒ a = a′ e b = b′. De
modoanálogo, podemos definir o produto cartesiano A1 ×A2 × · · ·
×An de conjuntos A1, A2, . . . , An. Seja Aum conjunto e sejam S,
S′ ⊂ A subconjuntos. Denotamos por S \ S′ := {s ∈ S | s /∈ S′} o
complementode S′ em S.
Seja f : A→ B uma aplicação e sejam A′ ⊂ A e B′ ⊂ B. Então
f(A′) :={f(a) | a ∈ A′
}é a imagem
de A′ por f e f−1(B′) :={a ∈ A | f(a) ∈ B′
}é a imagem inversa de B′ por f . Definimos a restrição
f |A′ : A′ → B de f para A′ pela regra óbvia f |A′ : a′ 7→
f(a′). A aplicação de inclusão i : A′ ↪→ A édada pela regra i :
a′ 7→ a′ para todo a′ ∈ A′.
Sejam Af−→ B g−→ C duas aplicações dos formatos indicados.
Definimos a aplicação composta
ou a composição g ◦ f : A → C pela regra (g ◦ f)(a) :=
g(f(a)
)para todo a ∈ A. Essa operação é
associativa: é fácil verificar que (h ◦ g) ◦ f = h ◦ (g ◦ f)
para aplicações A f−→ B g−→ C h−→ D. Podemosobservar também que
a restrição f |A′ da aplicação f : A→ B para A′ ⊂ A é a
composição f ◦ i, isto é,f |A′ = f ◦ i, onde i : A′ ↪→ A é a
aplicação de inclusão. Para qualquer conjunto A, temos a
aplicação
1Este é nosso jeito de definir um conjunto. Seja dado um
conjunto A e seja P (x) uma propriedade de elementos. Então
o conjunto C ={a ∈ A | P (a)
}é formado por todos os elementos a ∈ A que satisfazem a
propriedade P (a).
-
2 2o SEMESTRE DE 2015
idêntica 1A : A → A dada pela regra 1A : a 7→ a. Essa
aplicação satisfaz as identidades f ◦ 1A = f e1A ◦ g = g para
quaisquer aplicações f : A→ B e g : C → A.
Uma aplicação f : A → B é dita injetora ou uma injeção se
f(a1) = f(a2) =⇒ a1 = a2 paratodos a1, a2 ∈ A. A aplicação de
inclusão considerada acima é um exemplo de uma aplicação
injetora.Uma aplicação f : A→ B é dita sobrejetora ou uma
sobrejeção se todo elemento de B é a imagem porf de um elemento
de A, isto é, se, para todo b ∈ B, existe um a ∈ A tal que f(a) =
b. Uma aplicaçãof : A→ B simultâneamente injetora e sobrejetora
é dita bijetora ou uma bijeção. Um jeito equivalentede definir
bijeção: uma aplicação f : A → B se chama bijeção se ela
possui uma inversa de doislados relativamente à composição; isto
significa que existe uma aplicação (inversa) g : B → A tal quef ◦
g = 1B e g ◦ f = 1A.
2. Escalares
Necessitamos fixar um conjunto K de escalares. Normalmente, este
será R ou C := {c | c é um númerocomplexo}. Mas quase tudo
funcionará2 tomando-se K = Q, onde Q := {q | q é um número
racional}.As propriedades que um conjunto numérico K deve ter para
servir como conjunto de escalares são as
seguintes:
E1. 1 ∈ K.E2. k1, k2 ∈ K =⇒ −k1, k1 + k2, k1k2 ∈ K.E3. 0 ̸= k ∈
K =⇒ 1
k∈ K.
Em palavras: temos escalar 1 e podemos efetuar adição,
subtração, multiplicação e divisão.3 Em par-ticular, 0 ∈ K
pois 0 = 1− 1.
3. Espaço vetorial
Seja V um conjunto munido de duas operações: K × V ·→ V
denotada (k, v) 7→ k · v e chamadamultiplicação por escalar, e V
× V +→ V denotada (v1, v2) 7→ v1 + v2 e chamada adição. Dizemos
que Vé um K-espaço vetorial se
V1. v1 + v2 = v2 + v1 para todos v1, v2 ∈ V (comutatividade da
adição).V2. (v1 + v2) + v3 = v1 + (v2 + v3) para todos v1, v2, v3
∈ V (associatividade da adição).V3. Existe um n ∈ V tal que n + v
= v para todo v ∈ V (existência do elemento neutro para a
adição). Tal n é único: para elementos neutros n e n′ temos
n′ = n+n′ = n′ +n = n. No que se segue,denotaremos este elemento
por 0.
V4. Para todo v ∈ V , existe um v′ ∈ V tal que v + v′ = 0. Para
um dado v ∈ V , este v′ é único:se v + v′′ = 0, temos v′′ = 0+
v′′ = (v + v′) + v′′ = (v′ + v) + v′′ = v′ + (v + v′′) = v′ + 0 = 0
+ v′ = v′.Em seguida, chamaremos v′ oposto a v e o denotaremos por
(−v).
V5. k · (v1 + v2) = (k · v1) + (k · v2) para todos v1, v2 ∈ V e
k ∈ K (distributividade da multiplicaçãopor escalar relativamente
à adição em V ).
V6. (k1 + k2) · v = (k1 · v) + (k2 · v) para todos k1, k2 ∈ K e
v ∈ V (distributividade da multiplicaçãopor escalar relativamente
às adições).
V7. (k1k2) · v = k1 · (k2 · v) para todos k1, k2 ∈ K e v ∈ V
(associatividade da multiplicação porescalar).
V8. 1 · v = v para todo v ∈ V .Dáı segue 0 · v = 0. Realmente,
v = 1 · v = (1+ 0) · v = 1 · v+0 · v = v+0 · v. Agora 0 = (−v) + v
=
(−v) + (v + 0 · v) =((−v) + v
)+ 0 · v = 0 + 0 · v = 0 · v. Também temos (−1) · v = −v. Com
efeito,
2Na computação usa-se uma escolha mais exótica de escalares,
a de 16 elementos.3A última operação exige que o escalar pelo
qual dividimos não seja nulo.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 3
v+ (−1) · v = 1 · v+ (−1) · v =(1 + (−1)
)· v = 0 · v = 0. Em seguida, vamos às vezes omitir · e
utilizar
a notação de subtração v1 − v2 := v1 + (−v2).3. Exemplos. 1.
R-espaço vetorial de vetores no plano.3.2. R-espaço vetorial de
vetores no espaço.3.3. Seja C um conjunto. Denotamos por Func(C,K)
:= {f : C → K} o conjunto de todas as
funções (= aplicações) de C para K. Definimos operações.
Para f, f1, f2 ∈ Func(C,K) e k ∈ K, façamos(f1 + f2)(c) := f1(c) +
f2(c) e (k · f)(c) := kf(c) para qualquer c ∈ C. É fácil
verificar que obtemosum K-espaço vetorial. Realmente, para provar
que f1 + f2 = f2 + f1, precisamos apenas verificar que(f1+f2)(c) =
(f2+f1)(c) para todo c ∈ C : pela definição, (f1+f2)(c) =
f1(c)+f2(c) = f2(c)+f1(c) =(f2 + f1)(c). O elemento neutro para a
adição é a função identicamente nula, dada por 0(c) := 0
paratodo c ∈ C. A função oposta a f é dada por (−f)(c) := −f(c)
para todo c ∈ C. Os outros axiomas severificam de modo
análogo.
3.4. Os próprios escalares K munidos das óbvias operações
constituem um K-espaço vetorial.3.5. Sejam V1, V2 K-espaços
vetoriais. Em V1×V2, definimos operações (v1, v2)+ (v′1, v′2) :=
(v1+ v′1,
v2 + v′2) e k · (v1, v2) := (k · v1, k · v2) para todos v1, v′1
∈ V1, v2, v′2 ∈ V2 e k ∈ K. É fácil verificar que
obtemos um K-espaço vetorial chamado soma direta de V1 e V2 e
denotado por V1 ⊕ V2. Por exemplo,o elemento neutro para a adição
é (0, 0) e o oposto a (v1, v2) é (−v1,−v2). De maneira
semelhante,podemos definir a soma direta V1 ⊕ V2 ⊕ · · · ⊕ Vn de n
K-espaços vetoriais V1, V2, . . . , Vn. DenotamosKn := K⊕K⊕ · · ·
⊕K︸ ︷︷ ︸
n vezes
.
3.6. C é um R-espaço vetorial. R e C são Q-espaços
vetoriais.3.7. O conjunto K[x] := {knxn+kn−1xn−1+ · · ·+k1x+k0 |
k0, k1, . . . , kn−1, kn ∈ K, n ≥ 0} de todos
os polinômios em uma variável x com coeficientes em K munido
das óbvias operações (aqu, é melhorinterpretar um polinômio
como uma expressão formal, não como uma função) é um K-espaço
vetorial.Fazendo K[x]
-
4 2o SEMESTRE DE 2015
Dáı, w + w′ = w1 + w′1 + w2 + w
′2 com w1 + w
′1 ∈ W1 e w2 + w′2 ∈ W2. Assim, W1 +W2 ≤ V . Note
que W1 +W2 contém ambos W1 e W2. Realmente, todo w1 ∈ W1 pode
ser escrito como w1 = w1 + 0com 0 ∈ W2. Logo, W1 ⊂ W1 + W2. De modo
semelhante, obtemos W2 ⊂ W1 + W2. Ainda mais,o subespaço W1 + W2
é o menor (no sentido de inclusão de conjuntos) subespaço que
contém ambosW1 e W2. Com efeito, seja W ≤ V um subespaço tal que
W1,W2 ⊂ W . Então, para quaisquerw1 ∈ W1 e w2 ∈ W2, temos w1, w2 ∈
W . Dáı, w1 + w2 ∈ W . Assim vemos que qualquer elementode W1 +W2
pertence a W , ou seja, W1 +W2 ⊂ W . Da mesma maneira podemos
definir o subespaçoW1 + W2 + · · · + Wn := {w1 + w2 + · · · + wn |
w1 ∈ W1, w2 ∈ W2, . . . , wn ∈ Wn} para subespaçosW1,W2, . . . ,Wn
≤ V . Este subespaço é o menor que contém todos os W1,W2, . . .
,Wn. Como a adiçãoé associativa, não colocamos os parênteses
em W1 +W2 + · · ·+Wn.
4.1.2. Seja V um K-espaço vetorial e seja v ∈ V . Então é
fácil ver que Kv := {k · v | k ∈ K} ≤ V .Obviamente, Kv é o menor
subespaço que contém v. Caso v ̸= 0, todo w ∈ Kv admite a única
formaw = k · v com k ∈ K.
4.1.3. Seja V um K-espaço vetorial e sejam v1, . . . , vn ∈ V .
Denotamos [v1, . . . , vn] := Kv1+· · ·+Kvn.Pelos Exemplos 4.1.1 e
4.1.2, [v1, . . . , vn] é o menor subespaço que contém todos os
v1, . . . , vn. Dizemosque [v1, . . . , vn] é o subespaço gerado
por v1, . . . , vn e chamamos os elementos v1, . . . , vn geradores
deste
subespaço. É imediato que todo v ∈ [v1, . . . , vn] tem uma
forma v = k1 · v1 + · · · + kn · vn, ondek1, . . . , kn ∈ K. A
expressão k1 · v1 + · · · + kn · vn se chama combinação linear
de v1, . . . , vn comcoeficientes k1, . . . , kn ∈ K. Nestes
termos, um subconjunto W ⊂ V não-vazio é um subespaço se,e só
se, é fechado relativamente às combinações lineares de seus
elementos com coeficientes arbitrários.
4.1.4. Temos subespaços K[x]
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 5
dependência linear não-trivial, onde k1, k2, . . . , kn ∈ K.
Assim, kj ̸= 0 para algum j. Então podemosexcluir o gerador vj da
coleção de geradores v1, v2, . . . , vn não alterando o
subespaço [v1, v2, . . . , vn],isto é, [v1, v2, . . . , vn] =
[v1, v2, . . . , vj−1, vj+1, . . . , vn].
Demonstração. Multiplicando a dependência por k−1j e isolando
vj , obtemos vj =∑i ̸=j
(−k−1j ki) ·vi.
Logo, vj ∈ [v1, v2, . . . , vj−1, vj+1, . . . , vn]. É claro
que [v1, v2, . . . , vj−1, vj+1, . . . , vn] ⊂ [v1, v2, . . . ,
vn].Lembrando que [v1, v2, . . . , vn] é o mı́nimo subespaço que
contém todos os v1, v2, . . . , vn e observandoque vl ∈ [v1, v2, .
. . , vj−1, vj+1, . . . , vn] para todo l, conclúımos que [v1, v2,
. . . , vj−1, vj+1, . . . , vn] ⊃[v1, v2, . . . , vn] �
4.4. Observação. Sejam v1, v2, . . . , vn ∈ V elementos LI de
um K-espaço vetorial. Então todov ∈ [v1, v2, . . . , vn] admite
uma única forma de combinação linear de v1, v2, . . . , vn.
Demonstração. O fato que todo v ∈ [v1, v2, . . . , vn] admite
a forma de uma combinação linear de
v1, v2, . . . , vn foi observado no Exemplo 4.1.3. Para a
unicidade, suponhamos quen∑
i=1
ki · vi =n∑
i=1
k′i · vi,
onde k1, k2, . . . , kn, k′1, k
′2, . . . , k
′n ∈ K. Então
n∑i=1
(ki − k′i) · vi = 0. Sendo v1, v2, . . . , vn LI,
conclúımos
que ki − k′i = 0 para todo i = 1, 2, . . . , n, ou seja, ki =
k′i �4.5. Observação. Qualquer parte de uma coleção LI em um
espaço vetorial é LI �
4.6. Lema. Sejam v1, v2, . . . , vn ∈ V elementos LI de um
K-espaço vetorial. Então, para qualquerk ∈ K e quaisquer 1 ≤ i, j
≤ n tais que i ̸= j, os elementos v1, v2, . . . , vi−1, vi+k ·vj ,
vi+1, . . . , vn são LI.
Demonstração. Seja ki · (vi + k · vj) +∑l ̸=i
kl · vl = 0 uma dependência linear de elementos
v1, v2, . . . , vi−1, vi + k · vj , vi+1, . . . , vn. Então ki
· (vi + k · vj) + kj · vj +∑l ̸=i,j
kl · vl = 0, ou seja,
ki · vi +(kj + kik) · vj +∑l ̸=i,j
kl · vl = 0. Sendo v1, v2, . . . , vn LI, obtemos kl = 0 para
todo l ̸= i, j, ki = 0
e kj + kik = 0. Dáı, kj = 0. Em outras palavras, todos os
coeficientes da dependência linear acima sãonulos �
4.7. Corolário. Sejam v1, v2, . . . , vn ∈ V elementos LI de um
K-espaço vetorial. Fixemos um ı́ndice1 ≤ j ≤ n e tomemos quaisquer
kl ∈ K para l ̸= j. Então os elementos
v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj ,
vj+1 + kj+1 · vj , . . . , vn + kn · vjsão LI.
Demonstração. Aplicando o Lema 4.6 com i = 1 e k = k1, obtemos
uma nova coleção LI
v1 + k1 · vj , v2, . . . , vj , . . . , vn.Aplicando o Lema 4.6
à nova coleção com i = 2 e k = k2, obtemos a coleção LI
v1 + k1 · vj , v2 + k2 · vj , v3, . . . , vj , . . . , vn.Assim,
chegamos à coleção LI
v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj ,
vj+1, . . . , vn.Aplicando o Lema 4.6 a essa última coleção com
i = j + 1 e k = kj+1, obtemos a coleção LI
v1 + k1 · vj , v2 + k2 · vj , . . . , vj−1 + kj−1 · vj , vj ,
vj+1 + kj+1 · vj , vj+2, . . . , vn.Continuando a agir deste modo,
chegamos ao resultado desejado �
-
6 2o SEMESTRE DE 2015
4.8. Teorema. Sejam v1, v2, . . . , vn ∈ V LI e seja V = [g1,
g2, . . . , gm]. Então m ≥ n.
Demonstração. Utilizamos a indução sobre m. Para m = 0, o
fato é óbvio. Suponhamos quem > 0. Façamos W := [g1, g2, . .
. , gm−1]. Se vi ∈ W para todo i, pela hipótese de indução,
obtemosm − 1 ≥ n e, portanto, m ≥ n. Podemos supor que um dos vi’s
não pertence a W . Sem perda degeneralidade, este é vn, vn /∈ W .
Vamos provar que Kvn + W = V . Para alguns k1, k2, . . . , km ∈
K,
temos vn =m∑j=1
kj · gj com km ̸= 0 pois, caso contrário, vn ∈ [g1, g2, . . . ,
gm−1] = W . Isolando gm,
obtemos gm = k−1m vn −
m−1∑j=1
(k−1m kj) · gj . Em outras palavras, gm ∈ Kvn + W . Assim, gj ∈
Kvn + W
para todo j. Agora, V = [g1, g2, . . . , gm] implica Kvn + W = V
. Portanto, para todo 1 ≤ i < n,existem ki ∈ K e wi ∈ W tais que
vi = ki · vn + wi. Isto pode ser reescrito como wi = vi + (−ki) ·
vnpara todo i = 1, 2, . . . , n − 1. Pelo Corolário 4.7 aplicado
aos vi’s, ao j = n e aos (−kl)’s, l ̸= n,e pela Observação 4.5,
conclúımos que w1, w2, . . . , wn−1 são LI. Aplicando a hipótese
de indução paraw1, w2, . . . , wn−1 ∈W = [g1, g2, . . . , gm−1],
obtemos m− 1 ≥ n− 1. Portanto, m ≥ n �
4.9. Definição. Uma coleção LI de geradores b1, b2, . . . ,
bn ∈ V se chama base linear do K-espaçovetorial V . Enfatizamos
que a base é uma coleção ordenada.
Do Lema 4.3 segue o
4.10. Corolário. De qualquer coleção finita de geradores de
um espaço vetorial, é posśıvel escolheruma base linear �
4.11. Corolário. Seja V um K-espaço vetorial finitamente
gerado. Então toda coleção finita LI deelementos de V pode ser
completada a uma base linear de V .
Demonstração. Seja V = [g1, g2, . . . , gm] e seja v1, v2, . .
. , vn ∈ V uma coleção LI. Pelo Teorema 4.8,n ≤ m. Portanto,
aumentando a coleção v1, v2, . . . , vn se necessário, podemos
supor que ela é umacoleção máxima (no sentido de inclusão de
conjuntos) LI. Vamos mostrar que ela é uma base linear.
Bastaprovar que V = [v1, v2, . . . , vn]. Se V ̸= [v1, v2, . . . ,
vn], tomamos qualquer vn+1 ∈ V \ [v1, v2, . . . , vn] edemonstramos
que v1, v2, . . . , vn, vn+1 são LI, assim chegando a uma
contradição com a maximalidade
de v1, v2, . . . , vn. Realmente, suponhamos quen+1∑i=1
ki · vi = 0. Se kn+1 = 0, obtemos uma dependência
linear dos v1, v2, . . . , vn, donde conclúımos que todos os
ki’s são nulos. Se kn+1 ̸= 0, podemos expressar
vn+1 na forma de combinação linear dos v1, v2, . . . , vn :
vn+1 =n∑
i=1
(−k−1n+1ki) · vi. Isto contradiz
vn+1 /∈ [v1, v2, . . . , vn] �Do Teorema 4.8 segue imediatamente
o
4.12. Corolário. Duas bases lineares de um espaço vetorial
têm a mesma cardinalidade �
4.13. Definição. A cardinalidade4 de uma base linear de um
K-espaço vetorial V se chama dimensãode V sobre K e se denota por
dimK V . Dos Lema 4.3 e Corolário 4.12 segue que a dimensão pode
sercaracterizada como a cardinalidade de qualquer coleção mı́nima
(no sentido de inclusão de conjuntos)de geradores. Pela
demonstração do Corolário 4.11, a dimensão também pode ser
caracterizada como acardinalidade de qualquer coleção máxima LI.
Note que do Teorema 4.8 segue que qualquer subespaçode um espaço
vetorial de dimensão finita tem dimensão finita.
4Consideramos aqui somente os espaços vetoriais finitamente
gerados, mas não é dif́ıcil generalizar as considerações
para os espaços vetoriais de dimensão infinita.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 7
4.14. Corolário. Seja W ≤ V um subespaço de um K-espaço
vetorial V finitamente gerado. Entãoexiste um subespaço W ′ ≤ V
tal que W ∩W ′ = 0 e W +W ′ = V .
Demonstração. Tomamos uma base linear b1, b2, . . . , bn ∈ W
de W e completâmo-la a uma baselinear b1, b2, . . . , bn, bn+1, .
. . , bm ∈ V de V , m ≥ n. Façamos W ′ := [bn+1, . . . , bm].
Claramente,
W+W ′ = V . Seja w ∈W∩W ′. Então w =n∑
i=1
ki ·bi =m∑
j=n+1
kj ·bj para k1, k2, . . . , kn, kn+1, . . . , km ∈ K
apropriados. Dáı obtemos uma dependência linearn∑
i=1
ki · bi+m∑
j=n+1
(−kj) · bj = 0, implicando que todos
os ki’s são nulos. Logo, w = 0 �
4.15. Corolário. Sejam W1,W2 ≤ V subespaços de um K-espaço
vetorial V finitamente gerado.Então dimK W1 + dimK W2 = dimK(W1
∩W2) + dimK(W1 +W2).
Demonstração. Escolhemos uma base linear b1, b2, . . . , bn ∈
W1 ∩W2 de W1 ∩W2. Pelo Corolá-rio 4.11, podemos completá-la a uma
base linear b1, b2, . . . , bn, a1, a2, . . . , am ∈W1 de W1.
Também com-pletâmo-la a uma base linear b1, b2, . . . , bn, c1,
c2, . . . , cl ∈ W2 de W2. Basta mostrar que b1, b2, . . . , bn,a1,
a2, . . . , am, c1, c2, . . . , cl ∈W1 +W2 é uma base linear de W1
+W2, pois, neste caso, dimK(W1 ∩W2)= n, dimK W1 = n+m, dimK W2 = n+
l e dimK(W1+W2) = n+m+ l, implicando a fórmula desejada.
De W1 = [b1, b2, . . . , bn, a1, a2, . . . , am] e W2 = [b1, b2,
. . . , bn, c1, c2, . . . , cl] segue que W1 + W2 =[b1, b2, . . . ,
bn, a1, a2, . . . , am, c1, c2, . . . , cl] (lembre-se que W1 + W2
é o menor subespaço que contémambos W1 e W2).
Seja
n∑i=1
ki · bi +m∑j=1
k′j · aj +l∑
s=1
k′′s · cs = 0 uma dependência linear entre os b1, b2, . . . ,
bn, a1, a2,
. . . , am, c1, c2, . . . , cl. Então −l∑
s=1
k′′s · cs =n∑
i=1
ki · bi +m∑j=1
k′j · aj ∈ W1 ∩W2, pois a parte direita da
igualdade pertence a W1 e a parte esquerda da igualdade pertence
a W2. Por outro lado, em termos da
base b1, b2, . . . , bn, c1, c2, . . . , cl de W2, o elemento
−l∑
s=1
k′′s · cs, sendo pertencente a W1 ∩W2, tem que
ter coeficientes não-nulos somente na frente dos bi’s. Em
outras palavras, todos os k′′s ’s são nulos. Agora
temos
n∑i=1
ki · bi+m∑j=1
k′j ·aj = 0. Lembrando que os b1, b2, . . . , bn, a1, a2, . . .
, am são LI, vemos que todos
os ki’s e k′j ’s são nulos �
4.16. Dicionário. Seja β : b1, b2, . . . , bn uma base linear
de um K-espaço vetorial V . Podemos
associar a todo elemento v ∈ V uma coluna de escalares [v]β
:=
k1k2...kn
que, pela Observação 4.4,é univocamente determinada pela
igualdade v =
n∑i=1
ki · bi. Reciprocamente, qualquer coluna de n
escalares
k1k2...kn
define um elemento v ∈ V dado pela mesma fórmula v := n∑i=1
ki · bi. Assim, quando
uma base linear em V é fixa, temos um dicionário perfeito que
interpreta os elementos de V como as
-
8 2o SEMESTRE DE 2015
colunas de escalares. Note que bi corresponde à coluna cujo
único coeficiente não-nulo é igual a 1 e estáno i-ésimo
lugar.
Mais ainda, este dicionário preserva a adição e a
multiplicação por escalar. Com efeito, se [v]β =k1k2...kn
e [v′]β =k′1k′2...k′n
, então v = n∑i=1
ki · bi e v′ =n∑
i=1
k′i · bi. Portanto, v+ v′ =n∑
i=1
(ki + k′i) · bi, ou seja,
[v + v′]β =
k1 + k
′1
k2 + k′2
...kn + k
′n
. Em outras palavras, [v + v′]β = [v]β + [v′]β . Para qualquer k
∈ K, temos
k · v =n∑
i=1
(kki) · bi. Isto significa que [k · v]β =
kk1kk2...
kkn
. Logo, [k · v]β = k[v]β .5. Aplicações (transformações)
lineares. Matrizes
Uma aplicação A : U → V entre K-espaços vetoriais é dita
linear ou transformação linear seA1. A(u1 + u2) = Au1 +Au2 para
todos u1, u2 ∈ U .A2. A(ku) = k(Au) para todos u ∈ U e k ∈ K.Em
palavras: A preserva a adição e a multiplicação por
escalar.
5.1. Observação. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais, sejam u1, u2,
. . . , un ∈ U e sejam k1, k2, . . . , kn ∈ K. Então A( n∑
i=1
kiui
)=
n∑i=1
kiAui. Em outras palavras, toda
aplicação linear preserva combinações lineares �
5.2. Exemplos 1. Seja U ≤ V um subespaço de um K-espaço
vetorial V . Então a aplicação deinclusão i : U ↪→ V é linear.
Se uma aplicação linear é injetiva, ela se chama monomorfismo.
Assim,i : U ↪→ V é um exemplo de monomorfismo.
5.2.2. Seja U um K-espaço vetorial e seja k ∈ K. Então a
multiplicação por k, dada pela regramk : u 7→ ku, é uma
aplicação linear mk : U → U . Se uma aplicação linear é
bijetora, ela se chamaisomorfismo. Quando dois espaços vetoriais
são isomorfos, eles desfrutam as mesmas propriedadesalgébricas.5
É posśıvel ver que a aplicação inversa a um isomorfismo também
é linear. Caso k ̸= 0,a aplicação mk : U → U é um exemplo de
isomorfismo.
5.2.3. Seja V um K-espaço vetorial e seja β uma base linear em
V . Então o Dicionário 4.16 estabeleceuma aplicação linear dada
pela regra v 7→ [v]β . Essa aplicação é um isomorfismo entre V e
Kn, onden := dimK V .
5.2.4. Sejam UA−→ V B−→ W aplicações lineares entre K-espaços
vetoriais. Então a composta
B ◦ A é uma aplicação linear. Realmente, para todos u1, u2 ∈
U , temos, pela definição da composta,(B ◦ A)(u1 + u2) = B
(A(u1 + u2)
)= B(Au1 + Au2) = B(Au1) + B(Au2) = (B ◦ A)u1 + (B ◦ A)u2,
pois A e B são lineares. Para quaisquer k ∈ K e u ∈ U , temos
(B ◦ A)(ku) = B(A(ku)
)= B(kAu) =
kB(Au) = k(B ◦A)u pelos mesmos motivos.
5Portanto, podemos considerá-los como os “mesmos”. A única
diferença entre tais espaços vetoriais é que os correspon-dentes
conjuntos são diferentes, ou seja, as naturezas de elementos são
diferentes. Mas, para os fins de nossos estudos, istonão importa.
Qualquer que seja a “madeira” da qual é feito um espaço vetorial,
o funcionamento do espaço não depende
dessa particularidade.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 9
5.2.5. Sejam U e V K-espaços vetoriais. No conjunto LinK(U, V )
:= {A : U → V | A é linear}de todas as aplicações lineares de U
para V , definimos uma estrutura de K-espaço vetorial. ParaA,A1,
A2 ∈ LinK(U, V ) e k ∈ K, façamos (A1 + A2)u := A1u + A2u e (kA)u
:= kAu para todo u ∈ U .A aplicação 0 dada pela regra 0 : u 7→ 0
é obviamente linear e faz papel de um elemento neutro, pois(A+ 0)u
= Au+ 0u = Au+ 0 = Au para todo u ∈ U . Seja A ∈ LinK(U, V ).
Definimos (−A)u := −Aupara todo u ∈ U . A aplicação (−A) assim
definida é linear, pois (−A)(u1 + u2) = −A(u1 + u2) =−(Au1 + Au2)
= (−Au1) + (−Au2) = (−A)u1 + (−A)u2 e (−A)(ku) = −A(ku) = −kAu =
k(−A)upara todos u, u1, u2 ∈ U e k ∈ K (nestes cálculos,
utilizamos que A é linear). Agora
(A + (−A)
)u =
Au + (−A)u = Au − Au = 0 = 0u, ou seja, A + (−A) = 0. Os outros
axiomas se verificam de modoanálogo ou ainda mais fácil.
5.2.6. Sejam U , V e W K-espaços vetoriais. Qualquer
aplicação linear A : U → V define umaaplicação linear −◦A :
LinK(V,W )→ LinK(U,W ) dada pela regra −◦A : B 7→ B◦A (pelo Exemplo
5.4.2,B ◦A ∈ LinK(U,W )). Realmente, sejam B,B1, B2 ∈ LinK(V,W ) e
seja k ∈ K. Precisamos verificar que(B1 +B2) ◦A = B1 ◦A+B2 ◦A e que
(kB) ◦A = k(B ◦A). As igualdades para verificar significam
que((B1+B2)◦A
)u =
(B1 ◦A+B2 ◦A
)u e
((kB)◦A
)u =
(k(B ◦A)
)u para todo u ∈ U . Essas verificações
constituem um cálculo automático:((B1 +B2) ◦A
)u = (B1 +B2)(Au) = B1(Au) +B2(Au) = (B1 ◦A)u+ (B2 ◦A)u =
(B1 ◦A+B2 ◦A
)u,(
(kB) ◦A)u = (kB)(Au) = kB(Au) = k
((B ◦A)u
)=
(k(B ◦A)
)u.
Em palavras: a composição com A (à direita) é uma
aplicação linear. De modo análogo, qualqueraplicação linear B
: V → W define uma aplicação linear B ◦ − : LinK(U, V ) →
LinK(U,W ) dada pelaregra B◦− : A 7→ B◦A. Podemos resumir ambas
propriedades afirmando que a composição ◦ é bilinear.Isto
significa nada mais do que a linearidade da composição em cada um
de seus argumentos quando ooutro está fixo.
5.3. Lema. Sejam U e V K-espaços vetoriais, seja b1, b2, . . .
, bn ∈ U uma base linear em U e sejamv1, v2, . . . , vn ∈ V .
Então existe uma única aplicação linear A : U → V tal que Abj =
vj para todoj = 1, 2, . . . , n.
Demonstração. Todo u ∈ U admite uma única forma de
combinação linear de elementos da base:
u =
n∑j=1
kjbj para únicos k1, k2, . . . , kn ∈ K. Temos que definir a
aplicação A pela regra Au :=n∑
j=1
kjvj ,
pois Abj = vj e A( n∑
j=1
kjbj
)=
n∑j=1
kjAbj pela Observação 5.1. Assim, já temos a unicidade. Se u′
=
n∑j=1
k′jbj com k′1, k
′2, . . . , k
′n ∈ K, então
Au =n∑
j=1
kjvj , Au′ =
n∑j=1
k′jvj , A(u+ u′) = A
( n∑j=1
(kj + k′j)bj
)=
n∑j=1
(kj + k′j)vj
pela regra acima. Conclúımos que A(u+ u′) = Au+Au′. Para
qualquer k ∈ K, temos
A(ku) = A( n∑
j=1
(kkj)bj
)=
n∑j=1
kkjvj = kn∑
j=1
kjvj = kAu �
5.4. Corolário. Duas aplicações lineares que coincidem em uma
base linear são iguais �
5.5. Exerćıcio. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais. Prove que A0 = 0e A(−u) = −Au para todo u ∈ U
.
Seja A : U → V uma aplicação linear entre K-espaços
vetoriais. Chamamos A−10 = {u ∈ U | Au = 0}núcleo de A.
-
10 2o SEMESTRE DE 2015
5.6. Lema. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais e sejam U ′ ≤ U e V ′ ≤ Vsubespaços. Então a
imagem AU ′ e a imagem inversa A−1V ′ são subespaços, AU ′ ≤ V e
A−1V ′ ≤ U .Em particular, o núcleo de A é um subespaço de U
.
Demonstração. Todo elemento de AU ′ tem a forma Au′ para algum
u′ ∈ U ′. Sejam Au′, Au′1, Au′2 ∈AU ′ quaisquer elementos de AU ′,
onde u′, u′1, u
′2 ∈ U ′, e seja k ∈ K. Então Au′1 +Au′2 = A(u′1 + u′2) ∈
AU ′ e kAu′ = A(ku′) ∈ AU ′ pois u′1 + u′2 ∈ U ′ e ku′ ∈ U ′.
Pelo Exerćıcio 5.5, A0 = 0 ∈ AU ′.Sejam u, u1, u2 ∈ A−1V ′ e seja
k ∈ K. Então Au,Au1, Au2 ∈ V ′. Agora A(u1+u2) = Au1+Au2 ∈ V ′
e A(ku) = kAu ∈ V ′. Em outras palavras, u1 + u2 ∈ A−1V ′ e ku ∈
A−1V ′. Pelo Exerćıcio 5.5, A0 = 0.Isto implica que 0 ∈ A−1V ′
�
O núcleo de uma aplicação linear é uma medida de até qual
ponto a aplicação não é um monomorfismo:
5.7. Lema. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais. Então A é ummonomorfismo se, e só se, o
núcleo de A é nulo.
Demonstração. Obviamente o núcleo de A é nulo se A é um
monomorfismo. Suponhamos queA−10 = 0. Se Au1 = Au2, então 0 = Au1
+ (−Au2) = Au1 + A(−u2) = A(u1 − u2) pelo Exerćıcio 5.5.Sendo o
núcleo nulo, u1 − u2 = 0, ou seja, u1 = u2 �
5.8. Definição. Seja W ≤ V um subespaço de um K-espaço
vetorial V finitamente gerado. PeloCorolário 4.14, existe um
subespaço W ′ ≤ V chamado complementar a W tal que W ∩ W ′ = 0 eW
+W ′ = V . Neste caso, escrevemos W ⊕W ′ = V .
De fato, obtemos a soma direta de espaços vetoriais definida de
uma outra forma, a interna. Vamosver o porquê. Todo elemento v ∈ V
admite uma única decomposição v = w + w′ com w ∈ W ew′ ∈ W ′.
Realmente, para w1, w2 ∈ W e w′1, w′2 ∈ W ′, a igualdade w1 + w′1 =
w2 + w′2 implicaw1 − w2 = w′2 − w′1 ∈W ∩W ′. De W ∩W ′ = 0 segue w1
= w2 e w′1 = w′2.
Agora, para quaisquer v, v1, v2 ∈ V e k ∈ K, temos as
decomposições v = w + w′, v1 = w1 + w′1 ev2 = w2 +w
′2 para únicos w,w1, w2 ∈W e w′, w′1, w′2 ∈W ′. Portanto, kv =
kw+ kw′ é a decomposição
de kv e v1 + v2 = (w1 + w2) + (w′1 + w
′2) é a decomposição de v1 + v2. Em outras palavras, a
adição e
a multiplicação por escalar fazem-se pelas componentes na
decomposição, isto é, do mesmo jeito comona soma direta definida
no Exemplo 3.5.
Vemos também que as aplicações π : V → W e π′ : V → W ′ dadas
pelas regras π : v 7→ w eπ′ : v 7→ w′, onde v = w + w′ é a
decomposição de v com w ∈ W e w′ ∈ W ′, chamadas
projeções(relacionadas à soma direta), são lineares.
Juntando bases lineares de W e de W ′, é fácil ver que dimK W
+ dimK W′ = dimK V .
5.9. Lema. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais com U finitamentegerado e seja W um subespaço
complementar ao núcleo N := A−10 de A, isto é, U = N ⊕W .
EntãoA|W : W → AU é um isomorfismo.
Demonstração. De AN = 0 segue que AU = A(N +W ) = AW .
Portanto, a aplicação A|W : W →AU é um epimorfismo (uma
aplicação linear se chama epimorfismo se é sobrejetora). Se w ∈
W estáno núcleo de A|W : W → AU , então Aw = 0. Logo, w ∈ N .
Assim obtemos w ∈ N ∩W = 0, ou seja,w = 0. Pelo Lema 5.7, A|W : W →
AU é um monomorfismo �
5.10. Corolário. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais com U finitamentegerado. Então dimK A
−10 + dimK AU = dimK U �
A dimensão da imagem de uma aplicação linear A : U → V é
dita posto de A, que se denota por rkA,rkA := dimK AU .
5.11. Dicionário. Sejam U e V K-espaços vetoriais, seja β :
b1, b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . ,
cm uma base linear de V . Tomemos uma aplicação linear qualquer A
: U → V . Então,
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 11
para todo j = 1, 2, . . . , n, temos Abj =m∑i=1
aijci para únicos aij ∈ K (note o uso at́ıpico de
ı́ndices).
Associamos à aplicação linear A a (m×n)-matriz [A]βγ := [aij
] com coeficientes em K. Reciprocamente,seja [aij ] uma
(m×n)-matriz arbitrária com coeficientes em K. Pelo Lema 5.3,
existe uma única aplicação
linear A : U → V tal que Abj =m∑i=1
aijci para todo j = 1, 2, . . . , n. Assim, quando bases
lineares em U
e V são fixas, temos um dicionário perfeito que interpreta as
aplicações lineares de LinK(U, V ) como as(m× n)-matrizes de
escalares.
Mais ainda, este dicionário estabelece um isomorfismo entre os
K-espaços vetoriais LinK(U, V ) eMatrm×n K, onde Matrm×n K é
formado por todas as (m × n)-matrizes sobre K. Realmente, sejam
A,A′ ∈ LinK(U, V ) e seja k ∈ K. Para todo j = 1, 2, . . . , n,
temos Abj =m∑i=1
aijci e A′bj =
m∑i=1
a′ijci,
onde aij , a′ij ∈ K. Então (A + A′)bj = Abj + A′bj =
m∑i=1
(aij + a′ij)ci e (kA)bj = kAbj =
m∑i=1
(kaij)ci
para todo j = 1, 2, . . . , n. Traduzindo, obtemos [A]βγ = [aij
], [A′]βγ = [a
′ij ], [A + A
′]βγ = [aij + a′ij ] e
[kA]βγ = [kaij ]. Em outras palavras, [A+A′]βγ = [A]
βγ + [A
′]βγ e [kA]βγ = k[A]
βγ .
Este dicionário é compat́ıvel com o Dicionário 4.16, isto é,
[Au]γ = [A]βγ [u]β para todos u ∈ U e
A ∈ LinK(U, V ). Com efeito, os fatos que [u]β =
k1k2...kn
e [A]βγ = [aij ] se expressam pelas igualdadesu =
n∑j=1
kjbj e Abj =m∑i=1
aijci para todo j = 1, 2, . . . , n. Então, pela Observação
5.1,
Au =n∑
j=1
kjAbj =n∑
j=1
kj
( m∑i=1
aijci
)=
m∑i=1
( n∑j=1
aijkj
)ci.
Resta observar quen∑
j=1
aijkj é o i-ésimo coeficiente da coluna [aij ]
k1k2...kn
.5.12. Dicionário. Sejam U , V e W K-espaços vetoriais, seja β
: b1, b2, . . . , bn uma base linear
de U , seja γ : c1, c2, . . . , cm uma base linear de V e seja δ
: d1, d2, . . . , dl uma base linear de W . Então
[B ◦A]βδ = [B]γδ · [A]βγ para todos A ∈ LinK(U, V ) e B ∈
LinK(V,W ). Realmente, as matrizes [A]βγ = [aij ]
e [B]γδ = [bsi] são dadas pelas igualdades Abj =m∑i=1
aijci para todo j = 1, 2, . . . , n e Bci =l∑
s=1
bsids para
todo i = 1, 2, . . . ,m. Então
(B ◦A)bj = B(Abj) = B( m∑
i=1
aijci
)=
m∑i=1
aijBci =m∑i=1
aij
( l∑s=1
bsids
)=
l∑s=1
( m∑i=1
bsiaij
)ds.
Assim, o sj-ésimo coeficiente da matriz [B ◦ A]βδ é igual
am∑i=1
bsiaij , ou seja, [B ◦ A]βδ = [B]γδ · [A]βγ .
Deste modo, o Dicionário 5.11 traduz a composta de aplicações
lineares para o produto de matrizes.
5.13. Definição. Seja V um K-espaço vetorial e sejam β e γ
duas bases lineares de V . A matriz
-
12 2o SEMESTRE DE 2015
Mβγ := [1V ]βγ se chama matriz de mudança de base β para γ.
5.14. Lema. Sejam U e V K-espaços vetoriais, sejam β, β′ bases
lineares de U e sejam γ, γ′ baseslineares de V . Então, para
qualquer aplicação linear A : U → V , temos [A]β
′
γ′ = Mγγ′ · [A]βγ ·M
β′
β . Além
disso, Mββ′ = (Mβ′
β )−1.
Demonstração. Pelos Definição 5.13 e Dicionário 5.12,
Mγγ′ · [A]βγ ·Mβ′
β = [1V ]γγ′ · [A]βγ · [1U ]
β′
β = [1V ◦A ◦ 1U ]β′
γ′ = [A]β′
γ′ .
É fácil ver que [1U ]ββ = 1, onde 1 denota a matriz
identidade. Portanto,
Mβ′
β ·Mββ′ = [1U ]
β′
β · [1U ]ββ′ = [1U ◦ 1U ]
ββ = [1U ]
ββ = 1,
Mββ′ ·Mβ′
β = [1U ]ββ′ · [1U ]
β′
β = [1U ◦ 1U ]β′
β′ = [1U ]β′
β′ = 1,
ou seja, Mββ′ = (Mβ′
β )−1 �
5.15. Corolário. Seja V um K-espaço vetorial, sejam β e γ duas
bases lineares de V , sejaM a matrizde mudança de base β para γ e
seja A : V → V uma aplicação linear. Então [A]γγ = M · [A]
ββ ·M−1 �
6. Espaço dual. Naturalidade
Seja V um K-espaço vetorial. Uma aplicação linear do formato
f : V → K se chama funcional linear(lembre-se que, pelo Exemplo
3.4, K é um K-espaço vetorial). O espaço dual V ∗ é formado por
todosos funcionais lineares, V ∗ := LinK(V,K).
Seja A : U → V uma aplicação linear entre K-espaços
vetoriais. Definimos a aplicação dual A∗ :V ∗ → U∗ pela regra A∗
: f 7→ f ◦A para todo funcional linear f : V → K, ou seja, A∗f := f
◦A. EntãoA∗ : V ∗ → U∗ é uma aplicação linear. Realmente, para
todos f, f1, f2 ∈ V ∗ e k ∈ K, temosA∗(f1 + f2) = (f1 + f2) ◦A = f1
◦A+ f2 ◦A = A∗f1 +A∗f2, A∗(kf) = (kf) ◦A = k(f ◦A) = kA∗fpelo
Exemplo 5.2.6 (bilinearidade de ◦).
Para aplicações lineares UA,A′−→ V B−→W entre K-espaços
vetoriais e k ∈ K, temos
(A+A′)∗ = A∗ +A′∗
(kA)∗ = kA∗ (B ◦A)∗ = A∗ ◦B∗.Com efeito, para todo f ∈ V ∗,
temos
(A+A′)∗f = f ◦ (A+A′) = f ◦A+ f ◦A′ = A∗f +A′∗f = (A∗ +A′∗)f
,(kA)∗f = f ◦ (kA) = k(f ◦A) = kA∗f
pelo Exemplo 5.2.6 (bilinearidade de ◦). Para todo g ∈W ∗,
temos(B ◦A)∗g = g ◦ (B ◦A) = (g ◦B) ◦A = (B∗g) ◦A = A∗(B∗g) = (A∗
◦B∗)g.
Em palavras: passar à aplicação dual é uma aplicação
linear.
Temos uma aplicação linear natural IV : V → V ∗∗ definida pela
regra IV : v 7→ (f 7→ fv) para todosv ∈ V e f ∈ V ∗, ou seja, (IV
v)f := fv ∈ K. Em outras palavras, interpretamos qualquer v ∈ V
comoum funcional linear sobre V ∗ que manda f ∈ V ∗ para fv ∈ K.
Precisamos fazer algumas verificações.O fato que IV v definido
acima é linear segue de
(IV v)(f1 + f2) = (f1 + f2)v = f1v + f2v = (IV v)f1 + (IV v)f2,
(IV v)(kf) = (kf)v = k(fv) = k((IV v)f
),
onde f, f1f2 ∈ V ∗ e k ∈ K. O fato que a aplicação IV definida
acima é linear reside no cálculo(IV (v1 + v2)
)f = f(v1 + v2) = fv1 + fv2 = (IV v1)f + (IV v2)f =
((IV v1) + (IV v2)
)f ,(
IV (kv))f = f(kv) = k(fv) = k
((IV v)f
)=
(k(IV v)
)f ,
onde v, v1, v2 ∈ V , f ∈ V ∗ e k ∈ K.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 13
UIU−−−−→ U∗∗
A
y A∗∗yV
IV−−−−→ V ∗∗
A naturalidade de IV em V significa o seguinte. Seja A : U → V
uma aplicaçãolinear. Então temos o diagrama de aplicações
lineares à esquerda. A naturalidade dizque este diagrama é
comutativo, isto é, A∗∗ ◦ IU = IV ◦A. Verifiquemos este fato.
Paratodos u ∈ U e f ∈ V ∗, temos
((IV ◦A)u
)f =
(IV (Au)
)f = f(Au) = (f ◦A)u = (A∗f)u
e((A∗∗ ◦ IU )u
)f =
((A∗)∗(IUu)
)f =
((IUu) ◦ A∗
)f = (IUu)(A
∗f) = (A∗f)u. Istoimplica que (IV ◦A)u = (A∗∗◦IU )u para todo u
∈ U , ou seja, que IV ◦A = A∗∗◦IU . Intuitivamente,
essanaturalidade expressa que, “deformando” ou “movendo” o espaço
vetorial U através de A, temos umacorrespondente “deformação”
(natural) do espaço vetorial U∗∗ tal que IU naturalmente acompanha
esteprocesso. Um outro jeito de expressar a naturalidade de IV é
dizer que a definição de IV não envolvenenhuma escolha
arbitrária (tal como, por exemplo, uma escolha de base
linear).
6.1. Proposição. Sejam U, V,W K-espaços vetoriais e sejam V1,
V2 ≤ V subespaços tais que V =V1 ⊕ V2. Então temos os
isomorfismos naturais
i : LinK(U, V )→ LinK(U, V1)⊕ LinK(U, V2), j : LinK(V,W )→
LinK(V1,W )⊕ LinK(V2,W )dados pelas regras i : A 7→ (π1 ◦ A, π2 ◦
A) e j : B 7→ (B ◦ j1, B ◦ j2), onde πl : V → Vl é a projeção
ejl : Vl ↪→ V é a aplicação de inclusão, l = 1, 2.
Demonstração. A linearidade de i e j segue da bilinearidade de
◦ (vide o Exemplo 5.2.6). Se iA = 0,então π1 ◦ A = 0 e π2 ◦ A = 0
implicando π1(Au) = 0 e π2(Au) = 0 para todo u ∈ U . Dái, Au =
0para todo u ∈ U . Logo, A = 0. Pelo Lema 5.7, i é um
monomorfismo. Se jB = 0, temos B ◦ j1 = 0 eB ◦ j2 = 0 implicando
BV1 = 0 e BV2 = 0. Dáı, BV = B(V1 + V2) = 0 e B = 0. Pelo Lema
5.7, j é ummonomorfismo.
Sejam A1 : U → V1 e A2 : U → V2 aplicações lineares. Definimos
A : U → V pela fórmulaA = j1 ◦A1 + j2 ◦A2. Então πl ◦A = Al para
l = 1, 2, pois
(6.2) π1 ◦ j1 = 1V1 , π1 ◦ j2 = 0, π2 ◦ j1 = 0, π2 ◦ j2 = 1V2
.
Logo, iA = (A1, A2). Em outras palavras, i é um epimorfismo.
Conclúımos que i é um isomorfismo.Sejam B1 : V1 → W e B2 : V2 → W
aplicações lineares. Definimos B : V → W pela regra
B : v1 + v2 7→ B1v1 + B2v2, ou seja, B(v1 + v2) := B1v1 + B2v2
para todos v1 ∈ V1 e v2 ∈ V2.Uma verificação imediata mostra que
B é linear. É fácil ver que jB = (B1, B2). Em outras palavras,j
é um epimorfismo. Conclúımos que j é um isomorfismo �
A Proposição 6.1 afirma que aplicações lineares para ou de
uma soma direta são de fato pares deaplicações. Além das
relações (6.2) utilizadas na demonstração da Proposição 6.1,
é fácil verificar arelação
(6.3) j1 ◦ π1 + j2 ◦ π2 = 1V .
Na verdade, IV : V → V ∗∗ é um monomorfismo. Verificamos este
fato apenas para V finitamentegerado. Realmente, se IV v = 0 para
algum v ∈ V , então fv = 0 para todo f ∈ V ∗. Pelo Corolário
4.14,podemos achar um subespaco W ≤ V complementar a Kv, V = Kv⊕W .
Suponhamos que v ̸= 0. Entãov é uma base linear de Kv e, pelo
Lema 5.3, podemos encontrar um funcional linear g : Kv → K tal
quegv = 1. Pela Proposição 6.1, existe um funcional linear f : V
→ K tal que jf = (g, 0). Obviamente,fv = gv = 1 ̸= 0. Uma
contradição. Logo, v = 0 e, pelo Lema 5.7, IV é um
monomorfismo.
Seja β : b1, b2, . . . , bn uma base linear de V . Para todo j =
1, 2, . . . , n, pelo Lema 5.3, existe umúnico funcional linear
b∗j : V → K tal que b∗j bj = 1 e b∗j bi = 0 para i ̸= j. Então β∗
: b∗1, b∗2, . . . , b∗n
é uma base linear de V ∗ chamada dual a β. Realmente, sen∑
j=1
kjb∗j = 0, então 0 =
( n∑j=1
kjb∗j
)bi =
-
14 2o SEMESTRE DE 2015
n∑j=1
kjb∗j bi = ki para todo i. Em outras palavras, os b
∗1, b
∗2, . . . , b
∗n são LI. Seja f ∈ V ∗. Demonstramos
que f =
n∑j=1
(fbj)b∗j . Pelo Corolário 5.4, basta verificar que fbi =
( n∑j=1
(fbj)b∗j
)bi para todo i. Isto é
imediato:( n∑
j=1
(fbj)b∗j
)bi =
n∑j=1
(fbj)(b∗j bi) = fbi. Em particular, dimK V = dimK V
∗ = dimK V∗∗ se V
é finitamente gerado.
Dáı conclúımos que IV : V → V ∗∗ é um isomorfismo natural
para V finitamente gerado. Esteisomorfismo pode ser visto como uma
identificação. Isto significa que podemos pensar que V = V
∗∗.Deste modo, a expressão fv para v ∈ V e f ∈ V ∗ pode ser lida
de duas maneiras:
1. O escalar fv é o valor de f em v. Neste caso, interpretamos
f como um funcional linear sobre V .
2. O escalar fv é o valor de v em f . Neste caso, interpretamos
v como um funcional linear sobre V ∗.
Seja A : U → V uma aplicação linear entre K-espaços vetoriais
finitamente gerados. Então, con-siderando IU e IV como
aplicações idênticas, temos A
∗∗ = A pela naturalidade de IV .
6.4. Proposição. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais finitamentegerados. Então rkA = rkA∗.
Demonstração. Denotamos por N := A−10 o núcleo de A e por W ′
:= AU a imagem de A. SejaW ≤ U um subespaço complementar a N e
seja N ′ ≤ V um subespaço complementar a W ′, isto é,U = N ⊕W e V
= N ′ ⊕W ′. Denotamos também as correspondentes injeções e
projeções:
N ⊕Wj2←↩ W , N ′
j′1↪→ N ′ ⊕W ′
j′2←↩ W ′, N ′ π′1←− N ′ ⊕W ′ π
′2−→W ′.
Note que a igualdade π′1◦A = 0 e a relação análoga à (6.3)
implicam A = 1V ◦A = (j′1◦π′1+j′2◦π′2)◦A =j′2 ◦ π′2 ◦A. Pelo Lema
5.9, rkA = dimK W . Pela observação acima, dimK W = dimK W ∗.
Basta mostrar que a aplicação φ : A∗V ∗ → W ∗ dada pela regra
φ : g 7→ g ◦ j2 para g ∈ A∗V ∗ ≤ U∗é um isomorfismo. O fato que φ
é linear segue da bilinearidade de ◦ (Exemplo 5.2.6).
Suponhamos que φg = 0 para g ∈ A∗V ∗. Então g = A∗f para algum
f ∈ V ∗. Um elemento arbitráriou ∈ U tem a forma u = n+ w com n ∈
N e w ∈W . Claramente, An = 0 e j2w = w. Logo,
(A∗f)u = (f ◦A)(n+ w) = f(A(n+ w)
)= f(An+Aw) = f(Aw) =
= f(A(j2w)
)= (f ◦A ◦ j2)w =
((A∗f) ◦ j2
)w = (φg)w = 0.
Conclúımos que g = A∗f = 0. Assim, φ é um monomorfismo.
Para todo u ∈ U , temos Au ∈W ′. Portanto, (π′2 ◦A)u = π′2(Au) =
Au ∈W ′ para todo u ∈ U . PeloLema 5.9, I := π′2 ◦ A ◦ j2 : W → W ′
é um isomorfismo (lembre-se que A|W = A ◦ j2). Denotamos porI ′ :
W ′ →W o isomorfismo inverso a I.
Seja h ∈W ∗ um funcional linear. Então h◦I ′ ∈ LinK(W ′,K).
Pela Proposição 6.1, existe um funcionallinear f ∈ LinK(V,K) tal
que jf = (0, h ◦ I ′). Isto implica (vide a definição de j na
Proposição 6.1) quef ◦ j′2 = h ◦ I ′. De I ′ ◦ I = 1W segue f ◦
j′2 ◦ I = h, ou seja, h = f ◦ j′2 ◦ π′2 ◦A ◦ j2 = f ◦A ◦ j2 =
φ(A∗f)pela relação j′2 ◦ π′2 ◦A = A demonstrada acima.
Conclúımos que φ é um epimorfismo �
6.5. Dicionário. Sejam U e V K-espaços vetoriais, seja β : b1,
b2, . . . , bn uma base linear de U eseja γ : c1, c2, . . . , cm
uma base linear de V . Então, para qualquer aplicação linear A :
U → V , temos[A∗]γ
∗
β∗ =([A]βγ
)t, onde M t denota a matriz M transposta. Realmente, [A]βγ =
[aij ] com os coeficientes
aij ∈ K determinados pelas igualdades Abj =m∑i=1
aijci, j = 1, 2, . . . , n. Para desenvolver o elemento
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 15
A∗c∗s na forma de uma combinação linear dos b∗j ’s, utilizamos
a fórmula g =
n∑j=1
(gbj)b∗j demonstrada
acima para qualquer g ∈ U∗. Assim, temos
A∗c∗s =n∑
j=1
((A∗c∗s)bj
)b∗j =
n∑j=1
((c∗s ◦A)bj
)b∗j =
n∑j=1
(c∗s(Abj)
)b∗j =
=n∑
j=1
(c∗s
( m∑i=1
aijci
))b∗j =
n∑j=1
( m∑i=1
aijc∗sci
)b∗j =
n∑j=1
asjb∗j .
Isto significa que [A∗]γ∗
β∗ = [asj ]t.
6.6. Notação. Seja M ∈ Matrm×n K uma matriz. Denotamos por
M1,M2, . . . ,Mm todas as msucessivas linhas de M e por M1,M2, . .
. ,Mn todas as n sucessivas colunas de M . Os fatos que amatriz M
está composta das suas próprias linhas e das suas próprias
colunas podem ser agora escritoscomo
M = [M1 M2 . . .Mn], M =
M1M2...
Mm
.No mesmo estilo, para as matrizes A ∈ Matrm×n K e B ∈ Matrm×l
K, denotamos por [A | B] a matriz
[A1 A2 . . . An B1 B2 . . . Bl] ∈ Matrm×(n+l) K.
Seja M ∈ Matrm×n K uma matriz. Consideramos o K-espaço vetorial
Km como formado por colunas.A dimensão do subespaço de Km gerado
por todas as colunas de M se chama posto de M e é denotadapor rkM
.
6.7. Dicionário. Seja A : U → V uma aplicação linear entre
K-espaços vetoriais, seja β :b1, b2, . . . , bn uma base linear de
U e seja γ : c1, c2, . . . , cm uma base linear de V . Denotamos M
:= [A]
βγ .
Como foi observado no Dicionário 4.16, o j-ésimo elemento bj
da base linear β corresponde à colunacujo único coeficiente
não-nulo é igual a 1 e está no j-ésimo lugar. Dáı, pela
fórmula [A]βγ [v]β = [Av]γ ,
obtemos M j = M [bj ]β = [Abj ]γ . Em palavras: a j-ésima
coluna da matriz [A]βγ corresponde a Abj .
Agora, pelo Dicionário 4.16, conclúımos que a imagem AU
corresponde ao subespaço de Km geradopelas colunas de [A]βγ . Em
particular, rk[A]
βγ = rkA. É fácil ver que o núcleo de A corresponde ao
subespaço de Kn formado por todas as soluções do sistema
homogêneo MX = 0 (vide o Exemplo 4.1.7).
6.8. Corolário. Seja M uma matriz. Então rkM = rkM t. Em
palavras: o posto de uma matrizdefinido através de colunas e o
definido através de linhas coincidem6 �
Fazer algo natural normalmente é contrário a um ato da escolha
violenta, tal como a de base linear oude coordenadas.7 Há pessoas,
(a maioria dos autores de livros de álgebra linear) que consideram
o espaçoKn como o principal objeto de estudo na álgebra linear.
Essa visão parece a tentativa de arrumar umacama de Procrusto8
retangular de matrizes para as aplicações lineares, obscurecendo
assim a verdadeiranatureza de tais aplicações. As matrizes
naturalmente aparecem no estudo de aplicações lineares poistêm
origem de somas diretas; mas mesmo a decomposição do espaço na
soma direta dos unidimensionaisé um ato de violência pois não é
natural nem única.
Quando precisamos efetuar cálculos expĺıcitos para obter um
resultado numérico que é necessárionuma aplicação prática, as
matrizes podem ser realmente bem-vindas. Neste caso, sim, fazemos
uma
6Vide também a Observação 8.13.7Hermann Weyl (1885–1955):
“The introduction of numbers as coordinates . . . is an act of
violence . . . ”8Um bandido grego, dos antigos, famoso pela sua
cama de ferro . . . vide
http://en.wikipedia.org/wiki/Procrustes
-
16 2o SEMESTRE DE 2015
violência, mas essa pode ser comparada com a de um cirurgião e
não tem nada a ver com a de umbandido. O dicionário serve para
usar a ĺıngua mais adequada à situação. Não fale Alemão com
Deus!9
7. Sistemas de equações lineares. Matrizes elementares
Um sistema de equações lineares tem a formaa11x1 + a12x2 + · ·
·+ a1nxn = b1a21x1 + a22x2 + · · ·+ a2nxn = b2
......
...am1x1 + am2x2 + · · ·+ amnxn = bm
e pode ser escrito na forma matricial AX = B, onde A := [aij ] ∈
Matrm×n K se chama matriz do
sistema, X :=
x1x2...xn
é a coluna de variáveis e B :=b1b2...bm
. A matriz [AB] se chama matriz aumentadado sistema. O sistema
AX = 0 se chama sistema homogêneo associado ao sistema AX = B.
Sabemos(vide Exemplo 4.1.7) que todas as soluções do sistema
homogêneo formam um subespaço em Kn.
7.1. Observação. Seja S0 uma solução particular do sistema
AX = B. Então todas as soluções dosistema AX = B constituem o
conjunto {S0 + S | AS = 0} �
7.2. Lema. O sistema AX = B admite uma solução se, e só se,
rkA = rk[AB].
Demonstração. O sistema pode ser escrito na forma x1A1 +
x2A
2 + · · · + xnAn = B. Portanto,rkA = rk[AB] se existe uma
solução. Suponhamos que rkA = rk[AB]. Então o subespaço gerado
porA1, A2, . . . , An contém B. Logo, x1A
1 + x2A2 + · · ·+ xnAn = B para alguns x1, x2, . . . , xn ∈ K
�
Recordemos o método de Gauss-Jordan de solução de um sistema
de equações lineares. Fazendo asseguintes operações elementares
com a matriz aumentada do sistema
• Trocar a posição de duas linhas da matriz.• Multiplicar uma
linha da matriz por um escalar diferente de zero.• Somar a uma
linha da matriz um múltiplo escalar de outra linha.
podemos conseguir a matriz escalonada reduzida que se
caracteriza pelas propriedades
• Todas as linhas nulas ocorrem abaixo das não-nulas.• O
primeiro coeficiente não-nulo de cada linha não-nula, chamado
pivô, é igual a 1.• O pivô da (i+ 1)-ésima linha não-nula
está à direita do da i-ésima.• Na coluna de um pivô, todos os
outros coeficientes são nulos.
(Omitindo a segunda exigência, caracterizamos uma matriz
escalonada semi-reduzida. Para conseguira escalonada semi-reduzida,
as operações elementares do segundo tipo são desnecessárias.)
Se o pivôde uma linha está na última coluna, o sistema não
admite soluções. Caso contrário, chamamos livresas variáveis
que não correspondem às colunas com pivôs. Essas servem como
parâmetros da soluçãogeral do sistema. Ainda mais, a solução
geral obtida deste modo já providencia uma solução parti-cular
S0 e uma base linear de soluções do sistema homogêneo associado.
Um exemplo numérico: Seja1 0 3 0 0 20 1 2 0 0 30 0 0 1 4 10 0 0 0
0 0
a matriz aumentada do sistema. Ela já está escalonada
reduzida. As variáveis9Imperador Carlos V (1500–1558) : “Eu falo
Espanhol com Deus, Italiano com as mulheres, Francês com os homens
e
Alemão com meu cavalo”.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 17
livres são x3 e x5. O sistema correspondente tem a forma
x1 + 3x3 = 2x2 + 2x3 = 3x4 + 4x5 = 1
. Considerando as variáveis
livres como parâmetros, x3 := p1 e x5 := p2, obtemos a
solução geral do sistemax1x2x3x4x5
=23010
+ p1−3−2100
+ p2
000−41
:= S0 + p1S1 + p2S2 p1, p2 ∈ K.Aqui S0 é uma solução
particular do sistema e S1, S2 formam uma base linear de soluções
do sistemahomogêneo associado.10
7.3. Observação. Seja A ∈ Matrm×n K e seja B ∈ Matrm×l K. Se a
matriz [A | B] é escalonadareduzida, então A é escalonada
reduzida �
7.4. Observação. Seja A ∈ Matrm×m K uma matriz quadrada
escalonada reduzida. Então, ou A =1m×m, ou a última linha de A é
nula, Am = 0.
Demonstração. Suponhamos que Am ̸= 0. Então A não possui
linhas nulas. Se o pivô da i-ésima linha fica na posição
ii-ésima para todo i, temos A = 1m×m. Caso contrário, um dos
pivôs ficaestritamente à direita da diagonal principal. Isto,
lembrando-se que a matriz A é quadrada, não deixanenhum espaço
para o pivô da m-ésima linha �
Podemos descrever o processo de escalonamento e pivotização
utilizando matrizes elementares. Fixa-mos m. Denotamos por eij a (m
×m)-matriz cujo único coeficiente não-nulo está na ij-ésima
posiçãoe é igual a 1.
Sejam 1 ≤ i, j ≤ m, i ̸= j, dois ı́ndices distintos. Denotamos
por Eij a (m ×m)-matriz que difereda matriz identidade 1m×m somente
nas posições ii, ij, ji e jj. Os correspondentes coeficientes de
Eijsão 0, 1, 1 e 0. Podemos também definir Eij := 1m×m − eii +
eij + eji − ejj . O leitor pode facilmenteverificar que, para
qualquer (m×n)-matriz A, a matriz EijA é a matriz A com as linhas
Ai e Aj trocadas.Em outras palavras, a primeira operação
elementar se realiza através da multiplicação à esquerda poruma
matriz do tipo Eij .
Seja 1 ≤ i ≤ m e seja 0 ̸= k ∈ K. Denotamos por Ei(k) a (m ×
m)-matriz que difere da matrizidentidade 1m×m somente na posição
ii e tal que o ii-ésimo coeficiente de Ei(k) é igual a k.
Podemos
também definir Ei(k) := 1m×m + (k − 1)eii. É fácil ver que a
multiplicação à esquerda por uma matrizdo tipo Ei(k) realiza a
segunda operação elementar.
Sejam 1 ≤ i, j ≤ m, i ̸= j, dois ı́ndices distintos e seja k ∈
K. Denotamos Eij(k) := 1m×m + keij .Para qualquer (m×n)-matriz A, a
matriz eijA é a (m×n)-matriz que possui uma única linha
não-nula,a i-ésima, igual a Aj . Portanto, Eij(k)A é a matriz A
com uma única mudança: sua i-ésima linha éigual a Ai + kAj . Em
outras palavras, a terceira operação elementar realiza-se
através da multiplicaçãoà esquerda por uma matriz do tipo
Eij(k).
As matrizes dos três tipos descritos acima chamam-se
elementares. Assim, para fazer uma matrizA ∈ Matrm×n K escalonada
reduzida, multiplicâmo-la à esquerda (sucessivamente) por algumas
matrizeselementares E1, E2, . . . , El ∈ Matrm×m K de modo que a
matriz El . . . E2E1A fique escalonada reduzida.Para conseguir uma
matriz escalonada semi-reduzida precisamos apenas das matrizes
elementares doprimeiro e do terceiro tipos.
10O fato que S1, S2 são LI segue de uma óbvia observação,
válida em geral: Seja xi uma variável livre. Então osi-ésimos
coeficientes das colunas-soluções do sistema homogêneo são
todos nulos, exceto aquele correspondendo à própria
variável xi, que é igual a 1.
-
18 2o SEMESTRE DE 2015
Por um cálculo direto, obtemos a
7.5. Observação. Sejam 1 ≤ i, j ≤ m, i ̸= j, e seja k ∈ K.
EntãoEijEij = Eij(k)Eij(−k) = Eij(−k)Eij(k) = 1m×m.
Se k ̸= 0, temos também Ei(k)Ei(k−1) = Ei(k−1)Ei(k) = 1m×m
�Recordamos que uma matriz A ∈ Matrm×n K é dita inverśıvel se
existe uma matriz B ∈ Matrn×m K,
chamada inversa a A e denotada por A−1, tal que AB = 1m×m e BA =
1n×n. Note que tal inversa éúnica: se B′ é uma outra inversa,
obtemos B′ = 1n×nB
′ = (BA)B′ = B(AB′) = B1m×m = B. Na ver-dade, pelos Dicionários
5.11 e 5.12, as matrizes inverśıveis correspondem aos
isomorfismos. Logo, taismatrizes são necessariamente quadradas
(espaços vetoriais isomorfos têm a mesma dimensão). A
Ob-servação 7.5 diz que todas as matrizes elementares são
inverśıveis.
7.6. Observação. Sejam M1,M2, . . . ,Ml (m×m)-matrizes
inverśıveis. Então a matriz M1M2 . . .Mlé inverśıvel e (M1M2 .
. .Ml)
−1 = M−1l . . .M−12 M
−11 .
Demonstração. Temos
M1M2 . . .Ml−1MlM−1l M
−1l−1 . . .M
−12 M
−11 = M1M2 . . .Ml−1M
−1l−1 . . .M
−12 M
−11 =
= · · · = M1M2M−12 M−11 = M1M
−11 = 1.
De modo semelhante,
M−1l . . .M−12 M
−11 M1M2 . . .Ml = M
−1l . . .M
−12 M2 . . .Ml = · · · = M
−1l Ml = 1 �
7.7. Observação. Sejam M ∈ Matrs×m K, A ∈ Matrm×n K e B ∈
Matrm×l K. Então M [A | B] =[MA |MB].
Demonstração. Basta observar que M [A1 A2 . . . An] = [MA1 MA2
. . .MAn] �
7.8. Teorema. Seja A ∈ Matrm×m K uma matriz quadrada. Seja M ∈
Matrm×m K o produto dematrizes elementares tal que M [A | 1m×m] é
uma matriz escalonada reduzida. Então A é inverśıvel se,e só
se, a matriz MA não possui linhas nulas. Neste caso, M = A−1.
Demonstração. Pela Observação 7.7, M [A | 1m×m] = [MA | M ].
Pela Observação 7.3, a matrizMA é escalonada reduzida. Pelas
Observações 7.5 e 7.6, a matriz M é inverśıvel. Aplicamos
agoraa Observação 7.4 à matriz MA. Se MA = 1m×m, então,
multiplicando essa igualdade à esquerdapor M−1, obtemos A = M−1.
Portanto, A é inverśıvel e A−1 = M . Se a última linha de MA é
nula,então [0 . . . 01]MA = 0. Neste caso, a matriz A não pode
ser inverśıvel. Caso contrário, multiplicandoa última igualdade
à direita pela inversa a MA, obtemos [0 . . . 01] = 0. Uma
contradição �
O leitor deve notar que o Lema 4.6 tem algo a ver com a terceira
operação elementar.
8. Determinante
Seja A = [aij ] ∈ Matrn×n K uma matriz quadrada. Definimos o
determinante de A pela fórmula
detA =∑
(j1j2...jn)
(−1)I(j1j2...jn)a1j1a2j2 . . . anjn ,
onde (j1j2 . . . jn) percorre todas as permutações de 1, 2, .
. . , n e o śımbolo I(j1j2 . . . jn) denota o númerode inversões
na permutação (j1j2 . . . jn). Dizemos que (j1j2 . . . jn) é uma
permutação de 1, 2, . . . , nse {j1, j2, . . . , jn} = {1, 2, . .
. , n}, ou seja, se a seqüência j1, j2, . . . , jn representa os
mesmos números1, 2, . . . , n listados apenas em uma ordem
(possivelmente) diferente. Uma inversão na permutação(j1j2 . . .
jn) ocorre quando jα > jβ , mas α < β. Assim, I(j1j2 . . .
jn) é o número de todas as ocorrênciasde pares dos jk’s na ordem
decrescente. Por exemplo, I(12 . . . n) = 0. De fato, no cálculo
do
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 19
determinante, precisamos somente da paridade do número I(j1j2 .
. . jn). Em seguida, utilizaremos semdemonstração o seguinte
8.1. Fato. Seja (j1j2 . . . jn) uma permutação de 1, 2, . . .
, n. Então, para 1 ≤ α < β ≤ n, os númerosI(j1j2 . . . jα . .
. jβ . . . jn) e I(j1j2 . . . jβ . . . jα . . . jn) têm paridades
distintas.
Este fato possibilita determinar a paridade de uma permutação
(j1j2 . . . jn) fazendo transposições depares de ı́ndices (isto
é, trocando como acima jα e jβ com α ̸= β) até obter a
permutação (12 . . . n) comI(12 . . . n) = 0.
Na definição de determinante, cada termo a1j1a2j2 . . . anjn
no somatório tem exatamente um fator emcada linha da matriz A.
Sendo (j1j2 . . . jn) uma permutação de 1, 2, . . . , n, neste
mesmo termo temosexatamente um fator em cada coluna de A. Assim,
podemos ver que os termos no somatório percorremexatamente tais
produtos de n coeficientes de A que contêm um fator em cada linha
de A e um fatorem cada coluna de A.
Consideremos o termo a1j1a2j2 . . . anjn . Ele não se altera se
fizermos uma transposição de doisfatores. Fazendo tais
transposições, podemos finalmente ordenar os ı́ndices jα’s. Em
cada etapa, temoso termo escrito em uma forma do tipo as1t1as2t2 .
. . asntn . Quando fazemos a transposição dos fatoresasktk ,
asltl , onde 1 ≤ k < l ≤ n, efetuamos de fato as transposições
simultâneas de sk, sl na permutação(s1s2 . . . sk . . . sl . . .
sn) e de tk, tl na permutação (t1t2 . . . tk . . . tl . . . tn).
Pelo Fato 8.1, isto implica que,quando chegamos ao produto ai11ai22
. . . ainn, os sinais (−1)I(i1i2...in) e (−1)I(j1j2...jn) são os
mesmos,onde (j1j2 . . . jn) é a permutação relacionada à forma
original a1j1a2j2 . . . anjn do termo em questão.Em outras
palavras, provamos que∑
(j1j2...jn)
(−1)I(j1j2...jn)a1j1a2j2 . . . anjn =∑
(i1i2...in)
(−1)I(i1i2...in)ai11ai22 . . . ainn,
ou seja, chegamos ao seguinte
8.2. Corolário. Para toda matriz A ∈ Matrn×n K, temos detA =
detAt �Seja A = [aij ] ∈ Matrn×n K, seja 1 ≤ l ≤ n e seja k ∈ K.
Podemos escrever A como composta das
suas linhas, A =
[ ∗Al∗
]. Substitúımos a l-ésima linha Al pela linha Al + A
′l, onde A
′l = [a
′l1 a
′l2 . . . a
′ln].
Temos
det
[ ∗Al+A
′l
∗
]=
∑(j1j2...jl...jn)
(−1)I(j1j2...jl...jn)a1j1a2j2 . . . (aljl + a′ljl) . . . anjn
=
∑(j1j2...jl...jn)
(−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn+∑
(j1j2...jl...jn)
(−1)I(j1j2...jl...jn)a1j1a2j2 . . . a′ljl . . . anjn
= det
[ ∗Al∗
]+ det
[ ∗A′l∗
].
Do mesmo modo,
det
[ ∗kAl∗
]=
∑(j1j2...jl...jn)
(−1)I(j1j2...jl...jn)a1j1a2j2 . . . (kaljl) . . . anjn =
= k∑
(j1j2...jl...jn)
(−1)I(j1j2...jl...jn)a1j1a2j2 . . . aljl . . . anjn = k det[
∗Al∗
].
Chegamos à
-
20 2o SEMESTRE DE 2015
8.3. Proposição. Para todo l, o determinante detA é linear na
l-ésima linha de A (fixando todasas outras linhas de A) �
Essa propriedade do determinante pode ser também assim
expressa: o determinante é multi-linearnas linhas da matriz.
Seja A = [aij ] ∈ Matrn×n K e sejam 1 ≤ p < q ≤ n. Trocando
as linhas p-ésima e q-ésima de A, peloFato 8.1, obtemos
det
∗Aq∗Ap∗
= ∑(j1j2...jp...jq...jn)
(−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . aqjp . . . apjq . . .
anjn =
=∑
(j1j2...jp...jq...jn)
(−1)I(j1j2...jp...jq...jn)a1j1a2j2 . . . apjq . . . aqjp . . .
anjn =
= −∑
(j1j2...jp...jq...jn)
(−1)I(j1j2...jq...jp...jn)a1j1a2j2 . . . apjq . . . aqjp . . .
anjn = − det
∗Ap∗Aq∗
.Chegamos ao
8.4. Corolário. O determinante muda de sinal ao se trocar duas
linhas da matriz �
Essa propriedade do determinante se expressa dizendo-se que o
determinante é anti-simétrico naslinhas da matriz. A
anti-simetricidade do determinante claramente implica que o
determinante de umamatriz com duas linhas iguais é nulo.
Pelo Corolário 8.2, são válidas as afirmações envolvendo
colunas no lugar de linhas, análogas àProposição 8.3 e ao
Corolário 8.4.
Sejam d1, d2, . . . , dn ∈ K. Denotamos por diag(d1, d2, . . . ,
dn) a correspondente (n×n)-matriz diago-nal, isto é, a matriz
cujos únicos coeficientes não-nulos estão na diagonal principal
e são respectivamenteiguais a d1, d2, . . . , dn.
8.5. Observação. Sejam 1 ≤ i, j ≤ n, i ̸= j, sejam d1, d2, . .
. , dn ∈ K, seja k ∈ K e sejaA ∈ Matrn×n K. Então det(EijA) = −
detA, det
(Eij(k)A
)= detA e det
(diag(d1, d2, . . . , dn)A
)=
d1d2 . . . dn detA. Em particular, detEij = −1, detEij(k) = 1 e
det diag(d1, d2, . . . , dn) = d1d2 . . . dn.Assim, se k ̸= 0,
temos detEi(k) = k.
Demonstração. A igualdade det(EijA) = − detA segue do
Corolário 8.4 e das considerações acimada Observação 7.5. Por
mesmas considerações, pela Proposição 8.3 e pelo Corolário
8.4, temos
det(Eij(k)A
)= det
∗Ai+kAj∗Aj∗
= det ∗Ai∗
Aj∗
+ k det ∗Aj∗
Aj∗
= detA.A igualdade det
(diag(d1, d2, . . . , dn)A
)= d1d2 . . . dn detA segue imediatamente da
multi-linearidade
do determinante pois, multiplicando uma matriz A por uma matriz
diagonal, multiplicamos de fato aslinhas de A por correspondentes
coeficientes da matriz diagonal. Para o resto, basta tomar A = 1n×n
�
8.6. Exerćıcio. Uma matriz quadrada T chama-se triangular
superior (respectivamente, inferior)se todos os coeficientes abaixo
(respectivamente, acima) da diagonal principal de T são nulos.
Paraqualquer matriz triangular T , prove que detT é o produto de
todos os coeficientes da diagonal principalde T .
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 21
Pela Observação 8.5, podemos calcular o determinante de A
simplesmente escalonando A. Devido aoExerćıcio 8.6, para os fins
deste cálculo, basta conseguir no final uma matriz triangular.
8.7. Observação. Seja A ∈ Matrn×n K. Então A é inverśıvel
se, e só se, detA ̸= 0.
Demonstração. Pela Observação 8.5, podemos supor que A é
escalonada reduzida. Basta observarque detA = 0 caso a última
linha de A seja nula e aplicar a Observação 7.4 (ou o Teorema
7.8) �
8.8. Teorema. Sejam A,B ∈ Matrn×n K. Então det(AB) =
(detA)(detB).
Demonstração. Pela Observação 8.5, multiplicando as matrizes
A e AB à esquerda por umamesma matriz elementar E temos as
semelhantes mudanças dos determinantes detA e det(AB).
Assim,podemos supor que A é escalonada reduzida. Se A = 1n×n, a
igualdade det(AB) = (detA)(detB) éóbvia. Caso contrário, pela
Observação 7.3, a última linha de A é nula e detA = 0. Temos [0
. . . 01]A = 0.Logo, [0 . . . 01]AB = 0 e AB não pode ser
inverśıvel. Pela Observação 8.7, det(AB) = 0 �
Para A ∈ Matrn×n K, denotamos por Aij a matriz A com as i-ésima
linha e j-ésima coluna retiradas.Chamamos Aij o ij-ésimo menor de
A. O número (−1)i+j detAij é dito o ij-ésimo cofator de A.A
matriz transposta à matriz formada por todos os cofatores de A se
chama matriz adjunta a A e é
denotada por adjA :=[(−1)i+j detAij
]t.
Seja (jj2j3 . . . jn) uma permutação de 1, 2, 3, . . . , n.
Então (−1)I(jj2j3...jn) = (−1)j+1(−1)I(j2j3...jn).Realmente,
fazendo transposições dos j2, j3, . . . , jn, podemos reduzir o
problema ao caso da permutação(j 1 2 . . . (j − 1) (j + 1) . . .
n
)que tem j − 1 inversões. Essa observação implica que
detA =∑
(jj2j3...jn)
(−1)I(jj2j3...jn)a1ja2j2a3j3 . . . anjn =
=n∑
j=1
a1j(−1)j+1∑
(j2j3...jn)
(−1)I(j2j3...jn)a2j2a3j3 . . . anjn =n∑
j=1
a1j(−1)j+1 detA1j
para qualquer matriz A = [aij ] ∈ Matrn×n K. Trocando as linhas,
pelo Corolário 8.4, obtemos a fórmula
semelhante detA =n∑
j=1
aij(−1)i+j detAij para qualquer i, chamada desenvolvimento de
Laplace de
determinante pela i-ésima linha. Pelo Corolário 8.2, obtemos a
fórmula detA =
n∑i=1
aij(−1)i+j detAij
para todo j, chamada desenvolvimento de Laplace de determinante
pela j-ésima coluna.
8.9. Proposição. Seja A ∈ Matrn×n K. Então A(adjA) = (adjA)A
= (detA)1n×n.
Demonstração. Já sabemos quen∑
j=1
aij(−1)i+j detAij = detA en∑
j=1
(−1)j+i detAjiaji = detA para
todo i. Isto implica que todos os coeficientes das diagonais
principais de A(adjA) e (adjA)A são iguais
a detA. Resta mostrar quen∑
j=1
aij(−1)l+j detAlj = 0 para i ̸= l e quen∑
i=1
(−1)i+j detAijail = 0 para
j ̸= l. Suponhamos que i ̸= l. Pelo desenvolvimento de Laplace
pela l-ésima linha para a matriz
∗Ai∗Ai∗
que é a matriz A com a l-ésima linha substitúıda por Ai,
temos
n∑j=1
aij(−1)l+j detAlj = det
∗Ai∗Ai∗
= 0.
-
22 2o SEMESTRE DE 2015
Suponhamos que j ̸= l. Pelo desenvolvimento de Laplace pela
j-ésima coluna para a matriz A com a
j-ésima coluna substitúıda por Al, obtemos 0 = det[∗Al ∗Al∗]
=n∑
i=1
ail(−1)i+j detAij �
Utilizando as Observação 8.7 e Proposição 8.9, obtemos a
fórmula expĺıcita para a matriz inversa:
8.10. Corolário. Seja A ∈ Matrn×n K com detA ̸= 0. Então A−1
=1
detAadjA �
Aplicando essa fórmula para sistemas de equações lineares,
chegamos à regra de Cramer :
8.11. Corolário. Seja AX = B um sistema de n equações
lineares em n variáveis tal que detA ̸= 0.
Então o sistema admite uma única solução dada pelas
fórmulas xj =det[A1 A2 . . . Aj−1 BAj+1 . . . An]
detA,
j = 1, 2, . . . , n.
Demonstração. Multiplicando a igualdade AX = B à esquerda
pela inversa a A, obtemos a
única solução X = A−1B. Pelo Corolário 8.10, temos xj =1
detA
n∑i=1
(−1)i+jAijbi. Resta observar
quen∑
i=1
bi(−1)i+jAij é o desenvolvimento de Laplace de det[A1 A2 . . .
Aj−1 BAj+1 . . . An] pela j-ésima
coluna �
8.12. Observação. Sejam A,M ∈ Matrn×n K com M inverśıvel.
Então det(M−1) = (detM)−1 edet(MAM−1) = detA.
Demonstração. Pelo Teorema 8.8, 1 = det 1n×n = det(MM−1) =
(detM)(detM−1). Portanto,
det(M−1) = (detM)−1. Agora,
det(MAM−1) = (detM)(detA)(detM−1) = (detM)(detA)(detM)−1 =
detA
pelo Teorema 8.8 �
8.13. Observação. O posto de qualquer matriz A é igual ao
tamanho máximo de uma submatrizquadrada Q de A com detQ ̸= 0.
Demonstração. Retirando de A colunas que são LD das outras,
obtemos uma submatriz B com omesmo posto. Retirando de B linhas que
são LD das outras, não alteramos o posto e, pelo Corolário
6.8,chegamos a uma submatriz quadrada Q cujo posto coincide com seu
tamanho. Logo, detQ ̸= 0.
Reciprocamente, se Q é uma submatriz quadrada de A com detQ ̸=
0, então as colunas de Q são LI.Portanto, as correspondentes
colunas de A são LI, implicando que o posto de A é maior ou igual
aotamanho de Q �
Seja A : V → V uma aplicação linear. Escolhendo qualquer base
linear β de V , definimos detA :=det[A]ββ . Pelos Corolário 5.15 e
Observação 8.12, esta definição é correta, ou seja, não
depende da escolhade base linear. Parece que, durante toda essa
seção, temos falado Alemão com Deus . . .
9. Formas simétricas bilineares e 1.5-lineares
Em seguida, lidamos somente com espaços vetoriais de dimensão
finita. Para k ∈ K, o śımbolo k temduas variantes de leitura:
1. k denota o número (complexo) k conjugado.
2. k = k.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 23
9.1. Definição. Seja V um K-espaço vetorial. Uma forma
simétrica (hermitiana) é uma aplicação⟨−,−⟩ : V × V → K, (v1,
v2) 7→ ⟨v1, v2⟩, linear em v1 e tal que ⟨v1, v2⟩ = ⟨v2, v1⟩ para
todos v1, v2 ∈ V .Em outras palavras, a forma é bilinear
(1.5-linear), pois ⟨kv1, v2⟩ = k⟨v1, v2⟩ e ⟨v1, kv2⟩ = k⟨v1, v2⟩
paratodo k ∈ K. Se W ≤ V é um subespaço, podemos restringir a
forma ⟨−,−⟩ para W , obtendo o espaçovetorial W munido da forma
induzida.
9.2. Definição. Seja V um espaço vetorial munido de forma e
seja W ≤ V . Define-se W ortogonalpor W⊥ :=
{v ∈ V | ∀w ∈ W ⟨v, w⟩ = 0
}. O núcleo da forma em V é V ⊥. Caso o núcleo seja nulo,
dizemos que a forma é não-degenerada. Se a forma induzida no
subespaço W ≤ V é não-degenerada,dizemos que W é
não-degenerado. Para U,W ≤ V , o ortogonal de W relativo a U é
dado por W⊥U :=W⊥ ∩ U .
9.3. Lema. Seja V um espaço com forma e sejam W,W1,W2 ≤ V .
Então W⊥ ≤ V , W ⊂ W⊥⊥
e(W1 +W2)
⊥ = W⊥1 ∩W⊥2 .
Demonstração. Podemos reescrever a definição de W⊥ como W⊥
:={v ∈ V | ⟨v,W ⟩ = 0
}.
Sejam v, v1, v2 ∈ W⊥ e k ∈ K. Então ⟨v,W ⟩ = ⟨v1,W ⟩ = ⟨v2,W ⟩
= 0. Portanto, ⟨v1 + v2,W ⟩ ⊂⟨v1,W ⟩+ ⟨v2,W ⟩ = 0 e ⟨kv,W ⟩ = k⟨v,W
⟩ = 0. Logo, W⊥ ≤ V .
Claramente, ⟨W⊥,W ⟩ = 0. Aplicando , obtemos ⟨W,W⊥⟩ = 0. Isto
implica W ⊂W⊥⊥.O fato que v ∈ W⊥1 ∩W⊥2 é equivalente a ⟨v,W1⟩ =
⟨v,W2⟩ = 0. Por outro lado, ⟨v,W1 + W2⟩ =
⟨v,W1⟩+ ⟨v,W2⟩. Dáı conclúımos que v ∈W⊥1 ∩W⊥2 é equivalente
a v ∈ (W1 +W2)⊥ �
9.4. Observação. Seja V um espaço com forma e seja W ≤ V o
subespaço complementar aonúcleo V ⊥, i.e., V = V ⊥⊕W . Então W
é não-degenerado e a forma sobre V é determinada pela formasobre
W .
Demonstração. O fato que a forma sobre V é determinada pela
forma sobreW segue imediatamentede ⟨V ⊥, V ⟩ = 0. Se w ∈ W está no
núcleo da forma sobre W , então ⟨w,W ⟩ = 0. Por outro lado,⟨w, V
⊥⟩ = 0. Logo, ⟨w, V ⟩ = ⟨w, V ⊥⟩ + ⟨w,W ⟩ = 0, ou seja, w ∈ V ⊥.
Resta observar que w ∈V ⊥ ∩W = 0 �
9.5. Lema. Seja V um espaço com forma e seja W ≤ V . Então
dimK W + dimK W⊥ ≥ dimK V .
Demonstração. Utilizamos indução sobre dimK W . Caso dimK W
= 0, a desigualdade é óbvia.Suponhamos que dimK W ≥ 1. Então
temos um elemento não-nulo 0 ̸= w ∈ W e podemos decomporW = Kw ⊕ W
′. Definimos um funcional linear f : W ′⊥ → K pela regra f : v 7→
⟨v, w⟩. Então(Kw)⊥ ∩W ′⊥ é o núcleo de f , f−10 = (Kw)⊥ ∩W ′⊥.
Realmente, v ∈W ′⊥ está no núcleo de f se, e sóse, ⟨v, w⟩ = 0.
Isto é equivalente a ⟨v,Kw⟩ = 0.
Pelo Corolário 5.10, dimK f−10 ≥ dimK W ′⊥−1. Pelo Lema 9.3,
(Kw)⊥∩W ′⊥ = W⊥. Pela hipótese
de indução, dimK W′ + dimK W
′⊥ ≥ dimK V . Portanto,
dimK W + dimK W⊥ = 1 + dimK W
′ + dimK f−10 ≥
≥ 1 + dimK W ′ + dimK W ′⊥ − 1 = dimK W ′ + dimK W ′
⊥ ≥ dimK V �
9.6. Corolário. Seja V um espaço com forma e seja W ≤ V .
Então W ∩W⊥ é o núcleo da formainduzida sobre W . Caso W seja
não-degenerado, temos V = W ⊕W⊥.
Demonstração. Um elemento w ∈ W está no núcleo da forma
sobre W se, e só se, ⟨w,W ⟩ = 0.Isto é equivalente a w ∈ W⊥, ou
seja, a w ∈ W ∩ W⊥. Suponhamos que W ∩ W⊥ = 0. EntãodimK(W +W
⊥) = dimK W + dimK W⊥ ≥ dimK V pelo Lema 9.5 �
-
24 2o SEMESTRE DE 2015
9.7. Lema. Seja V um espaço com forma não-degenerado e seja W
≤ V um subespaço não-degenerado. Então W⊥ é não-degenerado e
W⊥
⊥= W .
Demonstração. Pelo Corolário 9.6, V = W ⊕W⊥. Basta mostrar
que W⊥⊥ = W , pois isto implicaque o núcleo da forma induzida
sobre W⊥ é nulo pelo Corolário 9.6.
Seja w + w′ ∈ W⊥⊥, onde w ∈ W e w′ ∈ W⊥. Pelo Lema 9.3, W ⊂ W⊥⊥
. Logo, w′ ∈ W⊥⊥,ou seja, ⟨w′,W⊥⟩ = 0. De w′ ∈ W⊥ segue ⟨w′,W ⟩ =
0. Agora, ⟨w′, V ⟩ = ⟨w′,W +W⊥⟩ = ⟨w′,W ⟩ +⟨w′,W⊥⟩ = 0. Sendo V
não-degenerado, w′ = 0 �
Um elemento v ∈ V é dito isotrópico se ⟨v, v⟩ = 0.
9.8. Lema. Seja V um espaço com forma não identicamente nula.
Então V possui um elementonão-isotrópico.
Demonstração. Suponhamos que ⟨v, v⟩ = 0 para todo v ∈ V .
Então, para todos v1, v2 ∈ V , temos0 = ⟨v1 + v2, v1 + v2⟩ = ⟨v1,
v2⟩ + ⟨v2, v1⟩ = ⟨v1, v2⟩ + ⟨v1, v2⟩. Se a operação é idêntica,
conclúımosque a forma é identicamente nula em V . Caso
contrário, temos Re⟨v1, v2⟩ = 0 para todos v1, v2 ∈ V
.Substituindo v1 por iv1, obtemos Im⟨v1, v2⟩ = 0 para todos v1, v2
∈ V �
9.9. Lema. Seja V um espaço com forma não-degenerado e seja W
� V um subespaço não-degenerado. Então existe um subespaço
não-degenerado W ′ tal que W ≤W ′ e dimK W ′ = dimK W +1.
Demonstração. Pelos Corolário 9.6, Lema 9.7 e Lema 9.8,
existe um elemento não-isotrópicow′ ∈W⊥. Façamos W ′ := W +Kw′.
Suponhamos que w+kw′ está no núcleo da forma sobre W ′, ondew ∈ W
e k ∈ K. Então 0 = ⟨w + kw′,W ⟩ = ⟨w,W ⟩, pois w′ ∈ W⊥ implica
⟨w′,W ⟩ = 0. Sendo Wnão-degenerado, temos w = 0. Agora
conclúımos, de ⟨w + kw′, w′⟩ = 0 e ⟨w′, w′⟩ ̸= 0, que k = 0 �
9.10. Definição. Uma bandeira de subespaços é uma cadeia de
subespaços V0 ≤ V1 ≤ · · · ≤ Vntal que Vn = V e dimVi = i para
todo i. Caso V seja munido de uma forma, a bandeira é
ditanão-degenerada se todos os Vi’s são não-degenerados.
Pelos Lemas 9.8 e 9.9, qualquer espaço com forma
não-degenerado possui uma bandeira não-degene-rada de
subespaços.
9.11. Definição. Seja V um espaço com forma. Uma base linear
β : b1, b2, . . . , bn de V é ditaortonormal11 se ⟨bi, bi⟩ ∈ {−1,
0, 1} e ⟨bi, bj⟩ = 0 para todos i e j tais que i ̸= j. Denotemos
porβ−, β0, β+ as quantidades de elementos da base β tais que ⟨bi,
bi⟩ = −1, ⟨bi, bi⟩ = 0, ⟨bi, bi⟩ = 1,respectivamente. A tripla (β−,
β0, β+) chama-se assinatura da base.
9.12. Lema. Seja V um espaço com forma e seja β : b1, b2, . . .
, bn uma base linear ortonormal de V .Então β0 = dimK V
⊥.
Demonstração. É imediato que todo elemento isotrópico de β
pertence a V ⊥. Sejam b1, b2, . . . , bm
todos os elementos não-isotrópicos de β e seja v =m∑i=1
kibi ∈ V ⊥, onde ki ∈ K. Então ⟨v, bj⟩ = 0 para
todo j = 1, 2, . . . ,m. Logo, 0 =⟨ m∑
i=1
kibi, bj
⟩=
m∑i=1
ki⟨bi, bj⟩ = ±kj �
9.13. Ortogonalização de Gram-Schmidt. Seja V0 ≤ V1 ≤ · · · ≤
Vn uma bandeira não-degenerada de subespaços de V . Então existe
b1, b2, . . . , bn, uma base ortonormal de V , tal queb1, b2, . . .
, bk é uma base de Vk para todo k.
11Caso K = C e a operação seja idêntica, pedimos que ⟨bi, bi⟩
∈ {0, 1}, inserindo em seguida as
correspondentesmodificações.
-
ÁLGEBRA LINEAR. NOTAS DE AULAS (ICMC-USP SÃO CARLOS) 25
Demonstração. Indução sobre n. Para n = 1, simplesmente
tomamos 0 ̸= c1 ∈ V1 e o normalizamos:b1 =
c1√∣∣⟨c1, c1⟩∣∣ . (Sendo V1 não-degenerado, ⟨c1, c1⟩ ≠ 0.)
Suponhamos que, para k < n, já tenhamosencontrado uma base
ortonormal b1, b2, . . . , bk de Vk tal que b1, b2, . . . , bi é
uma base de Vi para todo
i ≤ k. Tomemos ck+1 ∈ Vk+1 \ Vk e façamos c′k+1 := ck+1 −k∑
i=1
⟨ck+1, bi⟩⟨bi, bi⟩
bi. Sendo b1, b2, . . . , bk ∈ Vk,
temos c′k+1 ∈ Vk+1 \ Vk. De dimK Vk+1 = dimK Vk + 1 segue que
Vk+1 = Vk + Kc′k+1. Mostremos que⟨c′k+1, bj⟩ = 0 para todo j ≤ k.
Com efeito,
⟨c′k+1, bj⟩ =⟨ck+1 −
k∑i=1
⟨ck+1, bi⟩⟨bi, bi⟩
bi, bj
⟩= ⟨ck+1, bj⟩ −
k∑i=1
⟨ck+1, bi⟩⟨bi, bi⟩
⟨bi, bj⟩ =
= ⟨ck+1, bj⟩ −⟨ck+1, bj⟩⟨bj , bj⟩
⟨bj , bj⟩ = 0.
Sendo b1, b2, . . . , bk geradores de Vk, temos ⟨c′k+1, Vk⟩ = 0.
Se c′k+1 fosse isotrópico, ele pertenceriaao núcleo da forma
sobre Vk+1, pois Vk+1 = Vk + Kc′k+1. Portanto, c′k+1 não é
isotrópico e podemosnormalizá-lo, obtendo o bk+1 desejado �
9.14. Corolário. Qualquer espaço com forma admite uma base
ortonormal.
Demonstração. Pela Observação 9.4, podemos supor que V é
não-degenerado. Portanto, V possuiuma bandeira não-degenerada de
subespaços. Agora, o resultado segue de 9.13 �
9.15. Definição. Seja V um espaço com forma e sejam v1, v2, .
. . , vk ∈ V . Façamos gij := ⟨vi, vj⟩.A (k × k)-matriz G := G(v1,
v2, . . . , vk) := [gij ] se chama matriz de Gram de v1, v2, . . .
, vk. O fatoque a forma é simétrica implica que G
t= G, onde M denota a matriz M com todos os coeficientes
“conjugados” por . Em palavras: G é simétrica
(hermitiana).
9.16. Dicionário. Seja V um espaço com forma e seja β : b1,
b2, . . . , bn uma base linear de V . Entãoa matriz de Gram Gββ :=
G(b1, b2, . . . , bn) de β determina a forma de V , pois ⟨v, v′⟩ =
[v]tβGββ [v′]β
para quaisquer v, v′ ∈ V . Realmente, se v =n∑
i=1
kibi e v′ =
n∑j=1
k′jbj , então ⟨v, v′⟩ =n∑
i,j=1
ki⟨bi, bj⟩k′j =
n∑i,j=1
kigijk′j , onde gij = ⟨bi, bj⟩.
Qualquer matriz simétrica (hermitiana) aparece como matriz de
Gram de uma base de um certo espaçovetorial munido de uma forma
apropriada. Com efeito, seja G = [gij ] ∈ Matrn×n K uma matriz
simétrica(hermitiana), ou seja, G = Gt. Seja V um K-espaço linear
com uma base linear β : b1, b2, . . . , bn. Parav1, v2 ∈ V ,
definimos ⟨v1, v2⟩ := [v1]tβG[v2]β . É imediato que ⟨v1, v2⟩ é
linear em v1. Resta observar que
⟨v2, v1⟩ = [v2]tβG[v1]β = [v2]t
βG[v1]β = [v2]t
βGt[v1]β =
([v1]
tβG[v2]β
)t= ⟨v1, v2⟩.
Seja γ : c1, c2, . . . , cn uma outra base de V e seja Mβγ a
matriz de mudança da base β para γ. Então
Gββ = (Mβγ )tGγγMβγ . Realmente, temos Mβγ = [mij ], onde bj
=
n∑i=1
mijci para todo j. Então
gkl = ⟨bk, bl⟩ =⟨ n∑
i=1
mikci,n∑
j=1
mjlcj
⟩=
n∑i,j=1
mik⟨ci, cj⟩mjl =n∑
i,j=1
mikfijmjl,
-
26 2o SEMESTRE DE 2015
onde Gγγ = [fij ].
9.17. Lema. Seja V um espaço com forma e seja β uma base linear
de V . Então V é degenerado se,e só se, detGββ = 0. Exceto no
caso em que K = C e a operação é idêntica, o determinante
detGββé um número real cujo sinal não depende da escolha de
base.
Demonstração. Uma base linear γ de V é ortonormal se, e só
se, sua matriz de Gram Gγγ é diagonalcom coeficientes −1, 0, 1.
Pelo Lema 9.12, V é degenerado se, e só se, γ0 > 0, o que é
equivalente adetGγγ = 0.
Pelo Corolário 9.14, podemos mudar da base original β para uma
ortonormal γ. Pelo Dicionário 9.16,
temos Gββ = (Mβγ )tGγγMβγ , onde Mβγ é a matriz de mudança de
β para γ. Pelo Teorema 8.8,
detGββ = det(Mβγ )t detGγγ detMβγ = detM
βγ detG
γγdetMβγ = detMβγ detM
βγ detG
γγ ,
pois a operação comuta com as adições e multiplicações
(que participam na expressão de detMβγ ).
Sabemos que detMβγ ̸= 0. Assim obtemos a primeira afirmação.
Para a segunda, basta observar quedetMβγ detM
βγ = | detMβγ |2 > 0 �
No que se segue, desconsideraremos o caso em que K = C com a
operação idêntica, pois este éabsolutamente trivial quanto aos
aspectos que trataremos.
9.18. Exemplo. Seja V um espaço com forma e sejam e, f ∈ V tais
que ⟨e, e⟩ > 0 > ⟨f, f⟩. FaçamosW := Ke+Kf . Então dimK W =
2 e qualquer base ortonormal em W tem a assinatura (1, 0, 1).
Alémdisso, W possui elementos não-isotrópicos (não-nulos).
Realmente, podemos supor que W = V . Se 0 ̸= n ∈ V ⊥, então V =
Kw + Kn para algum w ∈ Vpois dimK W ≤ 2. Caso ⟨w,w⟩ ≥ 0,
conclúımos que ⟨v, v⟩ ≥ 0 para todo v ∈ V . Caso ⟨w,w⟩ ≤ 0,temos
⟨v, v⟩ ≤ 0 para todo v ∈ V . Nenhum destes casos é posśıvel pois
V possui um elemento positivoe um negativo. Por motivo semelhante,
dimK V = 2. Seja β uma base ortonormal de V . É fácil verque a
assinatura de β é diferente de (2, 0, 0) (pois V possui um
elemento positivo) e de (0, 0, 2) (pois Vpossui um elemento
negativo). Pelo Lema 9.12, β0 = 0. Logo, a assinatura de β só pode
ser (1, 0, 1).
É imediato que a soma dos elementos de β é isotrópica.
9.19. Teorema da Inércia de Sylvester. A assinatura não
depende da escolha de base ortonormal.
Demonstração. Utilizamos indução sobre dimK V . Sejam β :
b1, b2, . . . , bn e β′ : b′1, b
′2, . . . , b
′n duas
bases ortonormais de V . Pela demonstração do Lema 9.12, os
elementos isotrópicos de β (mesmo comoos elementos isotrópicos de
β′) geram o núcleo V ⊥. Os restantes elementos de β geram o
subespaçoW complementar ao nu