Fundamentos de Álgebra Linear Jonathan Tejeda Quartuccio Instituto de Pesquisas Científicas SISTEMAS DE EQUAÇÕES Uma equação linear com n incógnitas é descrita como 1 1 + 2 2 + 3 3 +⋯+ = Em que os termos e são números reais e são variáveis. Um sistema de m equações com n incógnitas é descrito como 11 1 + 12 2 +⋯+ 1 = 1 21 1 + 22 2 +⋯+ 2 = 2 . . . 1 1 + 2 2 +⋯+ = Onde e são números reais. Se todos os =0, então o sistema é dito homogêneo. Como exemplo, temos 2 1 + 3 2 =5 3 1 + 4 2 =7 Que é dito ser um sistema 2×2. Um sistema 2×3 é escrito como o exemplo a seguir 1 − 2 + 3 =2 2 1 + 2 − 3 =4 Assim, um sistema × é um sistema com equações e incógnitas. Um sistema 2×2 será analisado geometricamente: 11 1 + 12 2 = 1 21 1 + 22 2 = 2 Vamos olhar para três casos possíveis: Caso I: Seja o sistema: 1 + 2 =2 1 − 2 =2 Esse sistema possui uma solução para os pontos 1 =2 e 2 =0. Logo, esse sistema possui uma única equação que pode ser descrita como duas retas que se interceptam no ponto (2,0), que é seu conjunto solução. Caso II: Tomemos um sistema diferente: 1 + 2 =2 1 + 2 =3 Não tem como a soma entre dois números dar um resultado em uma equação e outro resultado em outra. Quando isso ocorre, o sistema não possui solução. Logo não há pontos em comum entre as duas retas.
25
Embed
Fundamentos de Álgebra Linear · Fundamentos de Álgebra Linear Jonathan Tejeda Quartuccio Instituto de Pesquisas Científicas SISTEMAS DE EQUAÇÕES Uma equação linear com n incógnitas
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Fundamentos de Álgebra Linear Jonathan Tejeda Quartuccio
Instituto de Pesquisas Científicas
SISTEMAS DE EQUAÇÕES Uma equação linear com n incógnitas é descrita como
𝑎1𝑥1 + 𝑎2𝑥2 + 𝑎3𝑥3 +⋯+ 𝑎𝑛𝑥𝑛 = 𝑏 Em que os termos 𝑎𝑛 e 𝑏 são números reais e 𝑥𝑛 são variáveis. Um sistema de m equações com n incógnitas é descrito como
Onde 𝑎𝑖𝑗 e 𝑏𝑖 são números reais. Se todos os 𝑏𝑖 = 0, então o sistema é dito homogêneo.
Como exemplo, temos 2𝑥1 + 3𝑥2 = 5 3𝑥1 + 4𝑥2 = 7
Que é dito ser um sistema 2 × 2. Um sistema 2 × 3 é escrito como o exemplo a seguir 𝑥1 − 𝑥2 + 𝑥3 = 2 2𝑥1 + 𝑥2 − 𝑥3 = 4
Assim, um sistema 𝑚× 𝑛 é um sistema com 𝑚 equações e 𝑛 incógnitas. Um sistema 2 × 2 será analisado geometricamente:
𝑎11𝑥1 + 𝑎12𝑥2 = 𝑏1 𝑎21𝑥1 + 𝑎22𝑥2 = 𝑏2
Vamos olhar para três casos possíveis: Caso I: Seja o sistema:
𝑥1 + 𝑥2 = 2 𝑥1 − 𝑥2 = 2
Esse sistema possui uma solução para os pontos 𝑥1 = 2 e 𝑥2 = 0. Logo, esse sistema possui uma única equação que pode ser descrita como duas retas que se interceptam no ponto (2,0), que é seu conjunto solução.
Caso II: Tomemos um sistema diferente:
𝑥1 + 𝑥2 = 2 𝑥1 + 𝑥2 = 3
Não tem como a soma entre dois números dar um resultado em uma equação e outro resultado em outra. Quando isso ocorre, o sistema não possui solução. Logo não há pontos em comum entre as duas retas.
Caso III:
𝑥1 + 𝑥2 = 2 −𝑥1 − 𝑥2 = −2
As duas equações desse sistema representam a mesma equação. Logo, temos duas retas com todos seus pontos internos em comum.
Esses três casos resumem as possíveis soluções para um sistema. Ou o sistema terá uma solução (caso I), ou não terá nenhuma solução (caso II) ou poderá ter infinitas soluções (caso III). Dizemos que dois sistemas são equivalentes quando possuem equações envolvendo as mesmas variáveis e com o mesmo conjunto solução. Um sistema 𝑛 × 𝑛 é dito ser um sistema quadrado de ordem 𝑛. Um sistema na forma triangular é:
Nesse caso, temos um sistema triangular 4 × 4. Para resolvê-lo, usamos a substituição reversa. Sistemas na forma triangular são fáceis de serem resolvidos. Se um sistema não está em sua forma triangular, podemos transforma-lo através de operações sobre as linhas do sistema. A melhor maneira de fazer isso é, primeiro, colocar nosso sistema na forma de matriz. Uma matriz é um agrupamento de valores em linhas (horizontais) e colunas (verticais). Cada linha representa uma equação e cada coluna representa uma variável. Assim, retomando o sistema:
Essa é a matriz aumentada do sistema. A matriz possui duas partes separadas por uma barra vertical. Essa barra pode ser entendida como a igualdade do nosso sistema. Essa barra mostra que temos duas matrizes: uma matriz com os coeficientes 𝑎𝑖𝑗, onde 𝑖 é a linha e 𝑗 a coluna, e
uma matriz com coeficientes 𝑏𝑖. Para resolver essa matriz iremos deixa-la na forma triangular através das operações sobre linhas:
Operação I: Intercambiar duas linhas Operação II: Multiplicar uma linha por um número real e diferente de zero Operação III: Substituir uma linha por sua soma a um múltiplo de outra linha
Fazendo essas operações iremos buscar tornar nossa matriz triangular. O que temos de fazer é, a partir do elemento 𝑎11 zerar todos os elementos abaixo. Em seguida vamos para o elemento 𝑎22 e zeramos todos os elementos abaixo, e assim sucessivamente como mostra o esquema de uma matriz 5 × 5:
(
𝑎11 𝑎21 𝑎31 𝑎41 𝑎42
𝑎12 𝑎22 𝑎32 𝑎42 𝑎52
𝑎13 𝑎23 𝑎33 𝑎43 𝑎53
𝑎14 𝑎24 𝑎34 𝑎44 𝑎54
𝑎15𝑎25𝑎35𝑎45𝑎55
||
𝑏1𝑏2𝑏3𝑏4𝑏5)
(
𝒂𝟏𝟏 00 0 0
𝑎12 𝑎22 𝑎32 𝑎42 𝑎52
𝑎13 𝑎23 𝑎33 𝑎43 𝑎53
𝑎14 𝑎24 𝑎34 𝑎44 𝑎54
𝑎15𝑎25𝑎35𝑎45𝑎55
||
𝑏1𝑏2𝑏3𝑏4𝑏5)
(
𝑎11 00 0 0
𝑎12 𝒂𝟐𝟐 0 0 0
𝑎13 𝑎23 𝑎33 𝑎43 𝑎53
𝑎14 𝑎24 𝑎34 𝑎44 𝑎54
𝑎15𝑎25𝑎35𝑎45𝑎55
||
𝑏1𝑏2𝑏3𝑏4𝑏5)
(
𝑎11 00 0 0
𝑎12 𝑎22 0 0 0
𝑎13 𝑎23 𝒂𝟑𝟑 0 0
𝑎14 𝑎24 𝑎34 𝑎44 𝑎54
𝑎15𝑎25𝑎35𝑎45𝑎55
||
𝑏1𝑏2𝑏3𝑏4𝑏5)
(
𝑎11 00 0 0
𝑎12 𝑎22 0 0 0
𝑎13 𝑎23 𝑎33 0 0
𝑎14 𝑎24 𝑎34 𝒂𝟒𝟒 0
𝑎15𝑎25𝑎35𝑎45𝑎55
||
𝑏1𝑏2𝑏3𝑏4𝑏5)
Sistemas (ou matrizes) escritos dessa forma são ditos sistemas escalonados ou sistemas degrau. Todo sistema pode ser escalonado. O processo o qual usamos as operações sobre linhas para transformar um sistema linear em uma matriz aumentada em sua forma escalonada é chamado de eliminação gaussiana. Vamos discutir o conceito de solução geral de um sistema linear de 𝑚 equações com 𝑛 incógnitas. O número de equações e de incógnitas são arbitrários. Nada impede que um sistema de equações seja constituído por uma única equação e várias incógnitas. Sejam as equações
𝑥1 − 𝑥2 + 3𝑥3 + 2𝑥4 = 1 (1)
−𝑥2 + 5𝑥3 + 3𝑥4 = 0 (2) Colocando 𝑥2 em evidência n segunda equação:
𝑥2 = 5𝑥3 + 3𝑥4 E substituindo esse valor em (1):
𝑥1 − 5𝑥3 − 3𝑥4 + 3𝑥3 + 2𝑥4 = 1 𝑥1 = 2𝑥3 + 𝑥4 + 1
Note que podemos resolver esse sistema dando valores arbitrários para 𝑥3 e 𝑥4 e assim obter diferentes soluções para o sistema original. Então, uma maneira simples de representar todas as soluções do sistema é fazendo a sua solução geral:
(
2𝑥3 + 𝑥4 + 15𝑥3 + 3𝑥4
𝑥3𝑥4
)
E para tornar essa solução ainda mais clara, fazemos:
(
𝑎𝑏𝑐𝑑
) + (
𝛼𝛽𝛾𝛿
) = (
𝑎 + 𝛼𝑏 + 𝛽𝑐 + 𝛾𝑑 + 𝛿
)
E tomamos
𝜆 (
𝑎𝑏𝑐𝑑
) = (
𝜆𝑎𝜆𝑏𝜆𝑐𝜆𝑑
)
Assim, temos:
(
2𝑥3 + 𝑥4 + 15𝑥3 + 3𝑥4
𝑥3𝑥4
)
= (
1000
) + (
2𝑥35𝑥3𝑥30
) +(
𝑥43𝑥40𝑥4
)
= (
1000
) + 𝑥3(
2510
) + 𝑥4(
1301
)
E essa também é uma forma de representar a solução geral do sistema. MATRIZES Já falamos que uma matriz é um agrupamento de valores dispostos em linhas e colunas. Temos a seguinte matriz:
𝐴𝑚×𝑛 = (
𝑎11 ⋯ 𝑎1𝑛⋮ ⋱ ⋮𝑎𝑚1 ⋯ 𝑎𝑚𝑛
)
Nesse caso, temos uma matriz de ordem 𝑚 × 𝑛, com 𝑚 linhas e 𝑛 colunas. Se tivermos duas matrizes de mesma ordem, então podemos soma-las:
(
𝑎11 ⋯ 𝑎1𝑛⋮ ⋱ ⋮𝑎𝑚1 ⋯ 𝑎𝑚𝑛
) + (𝑏11 ⋯ 𝑏1𝑛⋮ ⋱ ⋮𝑏𝑚1 ⋯ 𝑏𝑚𝑛
) = (𝑎11 + 𝑏11 ⋯ 𝑎1𝑛 + 𝑏1𝑛
⋮ ⋱ ⋮𝑎𝑚1 + 𝑏𝑚1 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛
)
De uma maneira geral, podemos escrever a soma da seguinte maneira:
Podemos multiplicar uma matriz por um número qualquer:
𝛼 (
𝑎11 ⋯ 𝑎1𝑛⋮ ⋱ ⋮𝑎𝑚1 ⋯ 𝑎𝑚𝑛
) = (
𝛼𝑎11 ⋯ 𝛼𝑎1𝑛⋮ ⋱ ⋮
𝛼𝑎𝑚1 ⋯ 𝛼𝑎𝑚𝑛)
Para prosseguir o estudo envolvendo multiplicações, vamos introduzir o conceito de vetor. Matrizes que possuem apenas uma linha ou uma coluna são chamadas de matrizes linhas ou matrizes colunas, respectivamente. De uma maneira geral, chamamos essas matrizes de vetores. Seja um vetor 𝑥 num espaço n-dimensional. Representamos o vetor 𝑥 como 𝒙 (vetor coluna) ou �⃗� (vetor linha). Assim, para o espaço n-dimensional:
𝒙 =
(
𝑥1𝑥2...𝑥𝑛)
𝑜𝑢 �⃗� = (𝑥1, 𝑥2, … , 𝑥𝑛)
O produto de uma matriz com um vetor será:
(
𝑎11 ⋯ 𝑎1𝑛⋮ ⋱ ⋮𝑎𝑚1 ⋯ 𝑎𝑚𝑛
)
(
𝑥1...𝑥𝑛)
= (
𝑎11𝑥1 ⋯ 𝑎1𝑛𝑥𝑛⋮ ⋱ ⋮
𝑎𝑚1𝑥1 ⋯ 𝑎𝑚𝑛𝑥𝑛)
A partir disso, vemos que todo sistema linear pode ser expresso da seguinte forma: 𝐴𝒙 = 𝑏
Sejam agora duas matrizes 𝐴𝑝×𝑚 e 𝐵𝑚×𝑛, de modo que o número de colunas da primeira matriz seja igual ao número de linhas da segunda matriz (essa é uma propriedade importante e diz que nem sempre 𝐴𝐵 = 𝐵𝐴, como ocorre para escalares. A MULTIPLICAÇÃO DE MATRIZES NÃO É COMUTATIVA). Teremos que:
𝐴𝑝×𝑚 × 𝐵𝑚×𝑛 = 𝐶𝑝×𝑛 A multiplicação é feita da seguinte maneira: Seja 𝐴 = 𝑎𝑖𝑗 e 𝐵 = 𝑏𝑗𝑘
A matriz identidade é definida como a matriz quadrada que segue:
𝐼 = 𝛿 = {1, 𝑠𝑒 𝑖 = 𝑗0, 𝑠𝑒 𝑖 ≠ 𝑗
Com base nisso, segue que qualquer que seja a matriz 𝐴: 𝐴𝐼 = 𝐴
Definimos a transposta de uma matriz A de ordem 𝑚× 𝑛, a matriz B de ordem 𝑛 ×𝑚: 𝑎𝑖𝑗 = 𝑏𝑗𝑖
Em outras palavras, trocamos as linhas pelas colunas e vice-versa. Representamos a transposta da matriz 𝐴 por 𝐴𝑇. REGRAS ALGÉBRICAS A seguir temos algumas regras a respeito da álgebra matricial:
Uma matriz é dita diagonal quando todos os elementos que não pertencem a diagonal principal são nulos. Por exemplo, para uma matriz de ordem três:
𝐴 = (𝑎11 0 00 𝑎22 00 0 𝑎33
)
Se uma matriz 𝐴 for diagonal e uma matriz 𝐵 também for diagonal, então:
𝐴𝐵 = 𝐵𝐴 Sejam as seguintes matrizes:
(
𝑎 𝑏 𝑐 𝑑0 𝑒 𝑓 𝑔
00
00
ℎ 𝑖0 𝑗
)
(
𝑎 0 0 0𝑏 𝑐 0 0𝑑𝑔
𝑒ℎ
𝑓 0𝑖 𝑗
)
Elas estão na forma triangular. Podemos obter uma matriz triangular fazendo operações sobre linhas, a fim de escalonar a matriz.
DETERMINANTES Para toda matriz quadrada podemos associar um número real chamado de determinante da matriz. O determinante irá nos dizer se uma matriz é singular ou não. Uma matriz é dita ser singular quando ela não possui uma matriz inversa. Se o determinante de uma matriz for igual a zero, então a matriz é singular. Se uma matriz é quadrada de ordem 𝑛 × 𝑛, dizemos simplesmente que a matriz é de ordem 𝑛. Seja a matriz de ordem um:
𝐴 = (𝑎) Seu determinante será:
det(𝐴) = 𝑎 Para uma matriz de ordem dois:
𝐴 = (𝑎11 𝑎12𝑎21 𝑎22
)
O determinante será calculado como: det(𝐴) = 𝑎11𝑎22 − 𝑎12𝑎21
Podemos usar a seguinte notação matricial para calcular um determinante:
|𝑎11 𝑎12𝑎21 𝑎22
|
Para matrizes de ordem maior que dois, o cálculo do determinante precisará de um pouco mais de álgebra. Seja a seguinte matriz de ordem três:
Para analisar casos de matrizes 𝑛 × 𝑛, vamos retomar o cálculo do determinante de uma matriz de ordem dois.
𝐴 = (𝑎11 𝑎12𝑎21 𝑎22
)
Podemos calcular seu determinante em termos de duas matrizes de ordem um, de maneira que:
𝑀11 = (𝑎22) 𝑀12 = (𝑎21)
A matriz 𝑀11 foi obtida eliminando a primeira linha e primeira coluna da matriz 𝐴 e a matriz 𝑀12 foi obtida eliminando a primeira linha e a segunda coluna da matriz 𝐴. O determinante será:
det(𝐴) = 𝑎11𝑎22 − 𝑎12𝑎21 = 𝑎11 det(𝑀11) − 𝑎12det (𝑀12) Para o caso de uma matriz de ordem três, podemos escrever:
det(𝐴) = 𝑎11(𝑎22𝑎33 − 𝑎32𝑎23) − 𝑎12(𝑎21𝑎33 − 𝑎31𝑎23) + 𝑎13(𝑎21𝑎32 − 𝑎31𝑎22) Que é análogo a:
det(𝐴) = 𝑎11 det(𝑀11) − 𝑎12 det(𝑀12) + 𝑎13det (𝑀13) Para casos onde a ordem da matriz é maior ou igual a três, fazemos o seguinte:
Podemos definir algumas propriedades dos determinados que dizem respeito ao conceito de anti-simetria.
1. Se permutarmos duas linhas ou duas colunas, o determinante terá seu sinal trocado.
2. Uma matriz com duas linhas iguais ou duas colunas iguais possui determinante nulo.
3. Se cada elemento de uma linha ou coluna for nulo, o determinante será nulo. 4. Se multiplicarmos uma linha ou uma coluna por uma constante, o determinante
também será multiplicado por essa constante. 5. det(𝐴𝐵) = det(𝐴) det (𝐵)
Se tivermos uma matriz na forma triangular, então o determinante será a multiplicação dos elementos da diagonal principal:
𝐴 = (
𝑎 𝑏 𝑐 𝑑0 𝑒 𝑓 𝑔
00
00
ℎ 𝑖0 𝑗
)
det(𝐴) = 𝑎𝑒ℎ𝑗
Assim, para matrizes de ordem muito alta, podemos torna-la uma matriz triangular e depois calcular o determinante. Outro modo de calcular a solução de um sistema linear é utilizando a chamada regra de Cramer. Seja uma matriz 𝐴 de ordem 𝑛 × 𝑛 não singular e seja 𝒃 ∈ ℝ𝑛. Obtemos a matriz 𝐴𝑖 pela substituição da i-ésima coluna de 𝐴 por 𝒃. Sendo 𝒙 a única solução de 𝐴𝒙 = 𝒃, temos:
𝑥𝑖 =det(𝐴𝑖)
det(𝐴)
PRODUTO INTERNO E PRODUTO VETORIAL Sejam dois vetores 𝒙 e 𝒚 em ℝ³. Definimos o produto interno como:
𝒙 ∙ 𝒚 = 𝑥1𝑦1 + 𝑥2𝑦2 + 𝑥3𝑦3 O produto interno nos fornece um determinado valor, dado por um escalar. Definindo o produto vetorial:
𝒙 × 𝒚 = (
𝑥2𝑦3 − 𝑦2𝑥3𝑦1𝑥3 − 𝑥1𝑦3𝑥1𝑦2 − 𝑦1𝑥2
)
O produto vetorial nos fornecerá um terceiro vetor. Voltaremos nesse assunto mais adiante. ESPAÇOS VETORIAIS É um conjunto onde está definido a soma de elementos e o produto de cada elemento por qualquer escalar. Um exemplo de espaço vetorial é o ℝ², que representa um plano. Podemos expandir para qualquer ℝ𝑛. Matrizes de ordem 𝑚 × 𝑛 também formam um espaço vetorial, além de funções 𝑓:ℝ → ℝ. Seja 𝑉 um conjunto no qual as operações de adição e multiplicação por escalar estão definidas. Os axiomas do espaço vetorial são:
1. 𝒙 + 𝒚 = 𝒚 + 𝒙 para quaisquer 𝒙 e 𝒚 em 𝑉.
2. (𝒙 + 𝒚) + 𝒛 = 𝒙 + (𝒚 + 𝒛) para quaisquer 𝒙, 𝒚 e 𝒛 em 𝑉. 3. Existe um elemento 𝟎 em 𝑉 tal que 𝒙 + 𝟎 = 𝒙. 4. Para cada 𝒙 em 𝑉, existe um elemento −𝒙 tal que 𝒙 + (−𝒙) = 𝟎. 5. 𝛼(𝒙 + 𝒚) = 𝛼𝒙 + 𝛼𝒚, para todo escalar 𝛼 em 𝑉. 6. (𝛼 + 𝛽)𝒙 = 𝛼𝒙 + 𝛽𝒙 para todo escalar 𝛼 e 𝛽 em 𝑉. 7. (𝛼𝛽)𝒙 = 𝛼(𝛽𝒙). 8. 1 ∙ 𝒙 = 𝒙.
SUBESPAÇOS E COMBINAÇÃO LINEAR Um subconjunto 𝑆 ⊂ ℝ𝑛 se diz um subespaço quando:
Se 𝑆 é um subespaço, isso implica que o vetor 0⃗⃗ ∈ 𝑆. Isso implica que uma reta que passe pela origem de um plano é um subespaço. Da mesma forma que planos passando pela origem.
Se 𝑆 é um subespaço, então para todo 𝑥, 𝑦 ∈ 𝑆 e 𝛼, 𝛽 ∈ ℝ temos que 𝛼𝑥 + 𝛽𝑦 ∈ 𝑆. Dizemos que 𝑉 é combinação linear de 𝑣1, 𝑣², … , 𝑣𝑚 com coeficientes 𝛼1, 𝛼2, … , 𝛼𝑚 se
𝛼1𝑣¹ + 𝛼2𝑣² + ⋯+ 𝛼𝑚𝑣𝑚 = 𝑉
Um subespaço é um conjunto não vazio que contém todas as combinações lineares de seus elementos. Vejamos um exemplo:
(8111)
Vamos determinar se o vetor acima é combinação linear de
Se esse sistema possuir solução (uma ou infinitas) então ele é combinação linear. DEPENDÊNCIA LINEAR Os vetores 𝑣1, 𝑣2, … , 𝑣𝑚 se dizem linearmente dependentes (LD) se existirem escalares
𝛼1, 𝛼2, … , 𝛼𝑚 ∈ ℝ (não todos nulos) tais que 𝛼1𝑣1 + 𝛼2𝑣² + ⋯+ 𝛼𝑚𝑣
𝑚 = 0⃗⃗.
Vejamos um exemplo:
{(12) (24)} são linearmente dependentes, pois:
2 (12) + (−1) (
24) = (
00)
Outro exemplo:
Vamos ver se os vetores (
134−1
) ,(
2−1−12
) ,(
323−1
) ,(
641119
) são LD. Para isso, devemos resolver o
sistema:
𝛼1(
134−1
) + 𝛼2(
2−1−12
) + 𝛼3(
323−1
)+ 𝛼4(
641119
) = (
0000
)
Existem duas possibilidades: ou o sistema possui uma única solução (0) ou o sistema possui infinitas soluções. Se o sistema possui uma única solução, dizemos que o sistema é linearmente independente (LI). Os vetores 𝑣1, 𝑣2, … , 𝑣𝑚 são linearmente independentes (LI) se 𝛼1𝑣
1 + 𝛼2𝑣² + ⋯+ 𝛼𝑚𝑣𝑚 =
0⃗⃗ → 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑚 = 0. Os vetores 𝑣¹, 𝑣², … , 𝑣𝑚 são LD se, e somente se, há um deles que é combinação linear de outros.
GERADORES E BASE Os vetores 𝑣1, 𝑣2, … , 𝑣𝑚 ∈ 𝑆 são geradores do subespaço 𝑆 se todo elemento de 𝑆 é combinação linear. Os vetores 𝑣1, 𝑣2, … , 𝑣𝑚 são uma base do subespaço 𝑆 se formam um conjunto de geradores e, ao mesmo tempo, são LI. Vejamos um exemplo:
{(100)(010)(001)} são uma base (canônica) de ℝ³.
Se 𝑆 e 𝑇 são subespaços, então 𝑆 ∩ 𝑇 é um subespaço. O conjunto de soluções de um sistema linear homogêneo é um subespaço. Todo subespaço de ℝ𝑛 é o conjunto solução de algum sistema linear homogêneo.
Vimos que os vetores 𝑣1, 𝑣2, … , 𝑣𝑚 são LI se 𝛼1𝑣1 + 𝛼2𝑣2 +⋯+ 𝛼𝑚𝑣𝑚 = 0⃗⃗ → 𝛼1 = 𝛼2 =
⋯ = 𝛼𝑚 = 0. Uma forma de escrever 𝛼1𝑣1 + 𝛼2𝑣2 +⋯+ 𝛼𝑚𝑣𝑚 = 0⃗⃗ é:
(𝑣1 𝑣2 … 𝑣𝑚)
(
𝛼1𝛼2...𝛼𝑚)
=
(
00...0)
Os vetores (𝑣1 𝑣2 … 𝑣𝑚) são LI quando o sistema linear:
(𝑣1 𝑣2 … 𝑣𝑚)
(
𝛼1𝛼2...𝛼𝑚)
= 0⃗⃗ tem solução única.
Exemplo:
O vetor (33) é combinação linear de (
22) e (
11) pois (
33) = 𝛼 (
22) + 𝛽 (
11) para 𝛼 = 1 e 𝛽 = 1.
Se 𝑣 é combinação linear de 𝑣1, … , 𝑣𝑝 e esses são LI, então os coeficientes da combinação
linear são únicos. Isso implica que se as colunas de uma matriz 𝐴 são LI, então o sistema 𝐴𝒙 =𝒃 ou tem uma ou nenhuma solução. G é um conjunto de geradores do subespaço 𝑆 se todo elemento de 𝑆 é combinação linear de elementos de G, como vimos anteriormente. A base é o conjunto de geradores LI. Exemplo:
Vamos checar se a base {(10) (01)} é LI. Fazemos:
𝛼 (10) + 𝛽 (
01) = (
00) e como 𝛼 = 0 e 𝛽 = 0 são as soluções, logo essa base é LI.
Outro exemplo:
Vamos checar se {(13) (11)} é uma base de ℝ².
Primeiro devemos nos certificar de que são geradores.
(𝑥𝑦) = 𝛼 (
13) + 𝛽 (
11)
De modo que 𝛼 + 𝛽 = 𝑥 e 3𝛼 + 𝛽 = 𝑦. Como esse sistema possui solução, os vetores são geradores.
Devemos nos certificar de que eles são LI. Devemos ter 𝛼 (13) + 𝛽 (
11) = (
00) o que nesse caso
implica que 𝛼 = 0 e 𝛽 = 0. Logo são LI e portanto formam uma base. Definimos como dimensão o número de elementos de uma base. Todas as bases de um subespaço têm o mesmo número de elementos. Se {𝑣1, … , 𝑣𝑝} é uma base de um subespaço e 𝑉 = 𝛼1𝑣1 +⋯𝛼𝑝𝑣𝑝, dizemos que 𝛼1, … , 𝛼𝑝 são
as coordenadas de 𝑉 na base {𝑣1, … , 𝑣𝑝}.
Por exemplo: dada a base formada por (135) e (
−122) e o vetor 𝑣 = (
1812), dizemos que 𝛼1 = 2
e 𝛼2 = 1 são as coordenadas de 𝑣 na base formada por (135) e (
−122).
Outro exemplo: as coordenadas de (
𝑥1𝑥2𝑥3𝑥4
) na base canônica são 𝑥1, 𝑥2, 𝑥3, 𝑥4. Pois
(
𝑥1𝑥2𝑥3𝑥4
) = 𝑥1(
1000
) + 𝑥2(
0100
) + 𝑥3(
0010
) + 𝑥4(
0001
)
Exercício: encontrar as coordenadas de (−1−3−8) na base {(
Resolvendo esse sistema, através de sua matriz aumentada e a escalonando, encontraremos que as coordenadas são 𝛼1 = −39, 𝛼2 = −23 e 𝛼3 = −6. Exercício: encontre uma base do subespaço de ℝ4 definido por:
𝑥1 − 𝑥2 − 𝑥3 − 𝑥4 = 0 2𝑥1 + 𝑥2 + 𝑥3 − 𝑥4 = 0
Escolha um vetor desse subespaço e encontre as coordenadas desse vetor. Resolução: Vamos encontrar a solução geral do sistema:
{𝑥1 − 𝑥2 − 𝑥3 − 𝑥4 = 02𝑥1 + 𝑥2 + 𝑥3 − 𝑥4 = 0
Encontramos a seguinte solução geral:
(
𝑥2 + 𝑥3 + 𝑥4−3𝑥3 − 𝑥4
3𝑥3𝑥4 )
=
(
−𝑥3 −𝑥43+ 𝑥3 + 𝑥4
−𝑥3 −𝑥43
𝑥3𝑥4 )
=
(
2
3𝑥4
−𝑥3 −𝑥43
𝑥3𝑥4 )
Como temos dois graus de liberdade, logo a dimensão é dois.
= 𝑥3(
0−110
) + 𝑥4
(
2
3
−1
301 )
E:
𝛼(
0−110
) + 𝛽
(
2
3
−1
301 )
= (
0000
)
São LI. Então, os seguintes vetores (
0−110
) e
(
2
3
−1
3
01 )
formam uma base do subespaço.
Podemos escolher qualquer um desses dois vetores, e as coordenadas serão 1 e 0, pois correspondem aos graus de liberdade.
Suponha que tenho os vetores {𝑣1, 𝑣2, … , 𝑣𝑝} = 𝐴. Substituo o primeiro por 𝛼𝑣1 + 𝛽𝑣2 com
𝛼 ≠ 0, ou seja, tenho o novo conjunto {𝛼𝑣1 + 𝛽𝑣2, 𝑣2, … , 𝑣𝑝} = 𝐵. Sabemos que
{𝑣1, 𝑣2, … , 𝑣𝑝} são LI ⇔ {𝛼𝑣1 + 𝛽𝑣2, 𝑣2, … , 𝑣𝑝} for LI. O subespaço gerado por 𝐵 é igual ao
subespaço gerado por 𝐴. Exemplo: Vamos encontrar uma base do subespaço de ℝ4 gerado por:
(
12−11
)(
3−122
)(
4113
)(
12−11
) e (
1−11−1
)
A primeira coisa a fazer é colocar os vetores na forma de matriz:
(
1 2 −1 13 −1 2 2411
12−1
1−11
31−1)
A operação entre linhas não muda o subespaço gerado pelas linhas e não muda a dependência ou independência linear das mesmas. Fazendo as operações entre linhas, chegamos à seguinte matriz:
(
1 2 −1 10 −7 5 −1000
000
−100
−1100 )
Como o subespaço não muda, então devemos encontrar uma base do subespaço gerado por
(
12−11
)(
0−75−1
)(
00−1−11
)
Devemos verificar se esses três vetores são LI. Assim:
𝛼(
12−11
) + 𝛽(
0−75−1
)+ 𝛾(
00−1−11
) = (
0000
)
Resolvendo esse sistema, vemos que 𝛼 = 𝛽 = 𝛾 = 0, logo são LI. Como esses vetores são geradores do subespaço e são LI, então eles são base desse subespaço e a dimensão é 3. Vamos agora completar uma base. Considere os vetores linearmente independentes:
(
1−123
) e (
−1211
)
Vamos encontrar dois vetores 𝒗 e 𝒘 tais que {(
1−123
) ,(
−1211
) , 𝒗,𝒘}seja uma base de ℝ4.
Primeiro, coloquemos os dois vetores deitados e escalonamos:
(1 −1 2 3−1 2 1 1
) → (1 −1 2 30 1 3 4
)
Devemos encontrar mais dois vetores que sejam LI. Fazemos então:
(
1 −1 2 30 1 3 400
00
10
01
)
Logo:
{(
1−123
)(
0134
)(
0010
)(
0001
)}
Formam uma base de ℝ4 que estende os dois vetores originais. MATRIZES QUADRADAS São matrizes que possuem o mesmo número de linhas e colunas. Um exemplo de matriz quadrada é a seguinte matriz identidade:
(1 0 00 1 00 0 1
)
As propriedades da matriz identidade (𝑰) são: 𝐼𝐵 = 𝐵 = 𝐵𝐼
De modo que 𝐵 ∈ ℝ𝑚×𝑚 e 𝐼 ∈ ℝ𝑚×𝑚. Em particular, se 𝑣 ∈ ℝ𝑛, 𝐼𝑣 = 𝑣. Exemplo:
(1 0 00 1 00 0 1
)(2 4 6 8 45 2 6 8 12 6 3 2 𝜋
) = (2 4 6 8 45 2 6 8 12 6 3 2 𝜋
)
Seja 𝐵 ∈ ℝ𝑛×𝑛, dizemos que 𝐵−1 é a inversa de 𝐵 quando 𝐵−1𝐵 = 𝐵𝐵−1 = 𝐼. Vamos ver alguns modos de encontrar a inversa. Se 𝑋 é a inversa de 𝐵, temos 𝐵𝑋 = 𝐼. Ou seja, encontrar a inversa de uma matriz consiste em resolver um sistema linear. Outro modo de encontrar a matriz identidade é fazendo o seguinte:
[𝐴|𝐼] → [𝐼|𝐴−1] Esse método consiste em colocar a matriz original e a identidade lado a lado. Em seguida, fazemos operações sobre linhas a fim de transformar a matriz original em identidade. A medida que vamos fazendo as operações, a matriz identidade sofrerá mudanças também. Quando transformarmos a matriz original em identidade, a matriz que era identidade será a inversa.
(𝑋|𝐼) → 𝑂𝑝𝑒𝑟𝑎çõ𝑒𝑠 𝑠𝑜𝑏𝑟𝑒 𝑙𝑖𝑛ℎ𝑎𝑠 → (𝐼|𝑋−1) Mas lembre-se que, se o determinante de uma matriz é zero, então ela não possui inversa. Se 𝐴, 𝐵 ∈ ℝ𝑛×𝑛 são invertíveis e 𝐶 = 𝐴𝐵 → 𝐶 é invertível e 𝐶−1 = 𝐵−1𝐴−1. Para provar isso, fazemos:
𝐵−1𝐴−1𝐶 = 𝐵−1𝐴−1𝐴𝐵 = 𝐵−1𝐼𝐵 = 𝐵−1𝐵 = 𝐼 Se a matriz de um sistema linear é invertível então esse sistema tem solução única. Se 𝐴 tem inversa, a única solução de 𝐴𝒙 = 0 é 𝒙 = 0. Se 𝐴 tem inversa então as colunas de 𝐴 são LI. Definimos como posto-linha o número de linhas LI que tem uma matriz. Para descobrir o posto-linha devemos escalonar a matriz (o posto-linha será o número de linhas não nulas depois do escalonamento). Por exemplo:
(4 2 −1 16 6 6 610 8 5 7
) têm posto dois.
As operações de escalonamento não alteram o posto-linha. Em uma matriz escalonada o número de linha LI é o número de linhas não nulos. Definimos o posto-coluna como o número de colunas LI de uma matriz. O posto-coluna de uma matriz escalonada é o número de linhas diferentes de zero. Logo, vemos que posto-linha = posto-coluna = posto da matriz. Um sistema linear 𝐴𝑥 = 𝑏 tem solução somente se:
𝑃𝑜𝑠𝑡𝑜𝐴 = 𝑃𝑜𝑠𝑡𝑜(𝐴, 𝑏) Definimos o espaço coluna, ou espaço imagem, de uma matriz como o conjunto de todas as combinações lineares das colunas. O espaço nulo, ou núcleo, da matriz é o conjunto de soluções de 𝐴𝑥 = 0. A dimensão desse subespaço é o número de graus de liberdade:
(
𝑥0
𝑥𝑥
⋯⋯
𝑥𝑥
0⋮0
0⋮0
⋯ 0⋮ ⋮⋯ 0)
A dimensão do núcleo é igual a 𝑛 − 𝑝𝑜𝑠𝑡𝑜𝐴 que é igual a 𝑛 − dimensão da imagem.
Vamos ver um exemplo:
(
3 2 6 1 1 10 4 3 2 −1 100
00
10
10
30
50
)
Essa matriz possui posto igual a três (três linhas não nulas), possui 𝑛 igual a seis, pois são seis colunas e possui três graus de liberdade (dado pelos últimos três zeros da última linha). Logo, a dimensão do núcleo dessa matriz é 6 − 3 = 3 (que são os graus de liberdade). TRANSFORMAÇÃO LINEAR 𝑇: 𝑣 → 𝑤 é uma transformação linear se para todo 𝑥,𝑤 ∈ 𝑣 temos 𝑇(𝛼𝑥 + 𝛽𝑦) = 𝛼𝑇(𝑥) +𝛽𝑇(𝑦). Para estabelecer totalmente uma transformação linear, basta conhecer os valores 𝑇(𝑣) para todo 𝑣 em uma base de 𝑉. Se 𝐵 ⊂ 𝑉 é uma base e 𝑣 ∈ 𝑉 então 𝑣 = 𝛼1𝑣1 +⋯+ 𝛼𝑛𝑣𝑛 com 𝑣1, … , 𝑣𝑛 ∈ 𝐵 ⇒ 𝑇(𝑣) =𝛼1𝑇(𝑣1) + ⋯+ 𝛼𝑛𝑇(𝑣𝑛). Definimos como isomorfismo uma transformação linear bijetora. Se 𝑥 ≠ 𝑦 → 𝑇(𝑥) ≠ 𝑇(𝑦). Para todo 𝑧 ∈ 𝑊 existe um 𝑥 ∈ 𝑉 tal que 𝑇(𝑥) = 𝑧. Dois espaços vetoriais são isomorfos se existe um isomorfismo entre eles. Todo espaço vetorial de dimensão finita 𝑛 é isomorfo a ℝ𝑛. Se dois espaços vetoriais de dimensão finita tem a mesma dimensão, eles são isomorfos. NORMA DE UM VETOR No espaço ℝ𝑛 definimos a norma do vetor 𝒙 como:
|𝑥| = √𝑥12 + 𝑥2
2 +⋯+ 𝑥𝑛2
Podemos denotar a norma euclidiana como |𝑥|2. Definimos a norma de Portland como: |𝑥|1 = |𝑥1| + |𝑥2| + ⋯+ |𝑥𝑛|
Os axiomas da norma são: 1. |𝑥| > 0 2. |𝑥| = 0 → 𝑥 = 0 3. |𝑥 + 𝑦| ≤ |𝑥| + |𝑦|, que é a desigualdade triangular 4. ∀𝛼, |𝛼𝑥| = |𝛼||𝑥|
Definimos a norma do supremo como: |𝑥|∞ = max {|𝑥1|, |𝑥2|, … , |𝑥𝑛|
Para todo 𝑝 ≥ 1, temos que:
|𝑥𝑝| = [|𝑥1|𝑝 + |𝑥2|
𝑝 +⋯+ |𝑥𝑛|𝑝]1/𝑝
A cada norma podemos associar uma distância 𝑑𝑖𝑠𝑡(𝑥, 𝑦) = |𝑥 − 𝑦|
O produto interno entre dois vetores depende, entre outras coisas, do ângulo entre os vetores. Teremos que:
1. ⟨𝑥, 𝑦⟩ > 0 para ângulos agudos 2. ⟨𝑥, 𝑦⟩ < 0 para ângulos obtusos 3. ⟨𝑥, 𝑦⟩ = 0 para ângulo reto
Se tivermos 𝑥 = 𝛼𝑦, para 𝛼 > 0 ⟨𝑥, 𝑦⟩ = ⟨𝛼𝑦, 𝑦⟩ = 𝛼𝑦1
2 +⋯+ 𝛼𝑦𝑛2 = 𝛼(𝑦1
2 +⋯+ 𝑦𝑛2) = |𝛼𝑦||𝑦| = |𝑥||𝑦|
Se tivermos 𝛼 < 0: ⟨𝑥, 𝑦⟩ = 𝛼(𝑦1
2 +⋯+ 𝑦𝑛2) = 𝛼|𝑦||𝑦| → −|𝛼𝑦||𝑦| = −|𝑥||𝑦|
A desigualdade de Cauchy-Scharz nos diz: −|𝑥||𝑦| ≤ ⟨𝑥, 𝑦⟩ ≤ |𝑥||𝑦|
ORTOGONALIDADE Se 𝑣1, 𝑣2, … , 𝑣𝑚 são vetores ortogonais (o ângulo entre eles é reto) e não nulos, então eles são LI. Para mostrar isso, vamos tomar vetores ortogonais e não nulos {𝑣1, … , 𝑣𝑚} e supor que
𝛼1𝑣1 +⋯+ 𝛼𝑚𝑣𝑚 = 0. Seja 𝑗 ∈ {1,2,…𝑚}, teremos que 𝑣𝑗𝑇[𝛼1𝑣1 +⋯+ 𝑎𝑗𝑣𝑗 +⋯+
𝛼𝑚𝑣𝑚] = 0. Então [𝛼1𝑣𝑗𝑇𝑣1 +⋯+ 𝛼𝑗𝑣𝑗
𝑇𝑣𝑗 +⋯+ 𝛼𝑚𝑣𝑗𝑇𝑣𝑚] = 0 → 𝛼𝑗|𝑣𝑗|
2= 0 → 𝛼𝑗 = 0.
Logo 𝛼𝑗 = 0, ∀𝑗 →LI.
Suponhamos que �⃗� = 𝛼1𝑣1 +⋯+ 𝛼𝑚𝑣𝑚 e 𝑣1, … , 𝑣𝑚 sejam ortogonais não nulos.
Multiplicando por 𝑣1𝑇:
⟨𝑣1, 𝑣⟩ = 𝑣1𝑇𝑣 = 𝛼1𝑣1
𝑇𝑣1 + 𝛼2𝑣1𝑇𝑣2 +⋯+ 𝛼𝑚𝑣1
𝑇𝑌𝑣𝑚 = 𝛼1𝑣1𝑇𝑣1
Todos os outros termos diferentes de 𝛼1𝑣1𝑇𝑣1 são cancelados devido à ortogonalidade. Assim:
𝛼1 =𝑣1𝑇𝑣
𝑣1𝑇𝑣=⟨𝑣1, 𝑣⟩
|𝑣1|2
De maneira geral:
𝛼𝑗 =⟨𝑣𝑗, 𝑣⟩
|𝑣𝑗|2
Definimos como vetores ortonormais aqueles com norma igual à unidade. Vejamos um exemplo: Se 𝑣 = ∑ 𝛼𝑗𝑣𝑗
𝑚𝑗=1 onde os 𝑣𝑗 são ortogonais ⇒ 𝛼𝑗 = ⟨𝑣𝑗 , 𝑣⟩, ∀𝑗.
Tomemos outro exemplo:
𝒗𝟏 =
(
√2
2
√2
2 )
, 𝒗𝟐 =
(
−
√2
2
√2
2 )
, 𝒗 = (
35)
|𝑣1|2 = (
√2
2)
2
+ (√2
2)
2
= 1
|𝑣2|2 = (−
√2
2)
2
+ (√2
2)
2
= 1
⟨𝑣1, 𝑣2⟩ =√2
2 (−
√2
2) +
√2
2 (√2
2) = 0
⟨𝑣, 𝑣1⟩ = (√2
2 √2
2)(35) = 4√2
⟨𝑣, 𝑣2⟩ = (−√2
2 √2
2) (35) = √2
Logo:
(35) = 4√2
(
√2
2
√2
2 )
+ √2
(
−
√2
2
√2
2 )
Chamamos de projeção de �⃗� no subespaço 𝑆(𝑃𝑆(�⃗�)) ao vetor de 𝑆 que está mais próximo de �⃗�. Vamos supor que {𝑣1, … , 𝑣𝑚} é uma base ortonormal de 𝑆. Como 𝑃𝑆(�⃗�) ∈ 𝑆 temos que 𝑃𝑆(�⃗�) = 𝛼1𝑣1 +⋯+ 𝛼𝑚𝑣𝑚.
Temos que �⃗� − 𝑃𝑆(�⃗�) é perpendicular a 𝑆 → �⃗� − 𝑃𝑆(�⃗�) é ortogonal a todos os vetores de 𝑆.
Assim, provamos que a projeção de �⃗� no subespaço gerado pelos ortonormais {𝑣1…𝑣𝑚} é igual a:
∑⟨𝑣𝑗, 𝑣⟩𝑣𝑗 = 𝑃𝑆(�⃗�)
𝑚
𝑗=1
Como exemplo, vamos calcular a projeção do vetor �⃗� = (231) no subespaço gerado por �⃗�1 =
(
√2
2
√2
2
0)
e �⃗�2 =
(
√2
2
−√2
2
0 )
em ℝ3.
⟨𝑣1, 𝑣⟩ = 2√2
2+ 3
√2
2+ 1 ∙ 0 = 5
√2
2
⟨𝑣2, 𝑣⟩ = 2√2
2− 3
√2
2+ 1 ∙ 0 = −
√2
2
Então a projeção será:
⟨𝑣1, 𝑣⟩𝑣1 + ⟨𝑣2, 𝑣⟩𝑣2 = 5√2
2
(
√2
2
√2
20 )
−√2
2
(
√2
2
−√2
20 )
= (
230)
Vimos que se �⃗� ∈ ℝ𝑛 e o subespaço 𝑆 tem a base ortonormal 𝑣1, … , 𝑣𝑚} então a projeção de �⃗� em 𝑆 vem dada por 𝑃𝑆(�⃗�) = ⟨𝑥, 𝑣1⟩𝑣1 +⋯+ ⟨𝑥, 𝑣𝑚⟩𝑣𝑚. Podemos expressar essa fórmula de outra maneira: ⟨𝑥, 𝑣1⟩𝑣1 +⋯+ ⟨𝑥, 𝑣𝑚⟩𝑣𝑚 = ⟨𝑣1, 𝑥⟩𝑣1 +⋯+ ⟨𝑣𝑚, 𝑥⟩𝑣𝑚, fazendo 𝑣1, 𝑥 = 𝑣1
𝑇𝑥:
𝑣1𝑇𝑥𝑣1 +⋯+ 𝑣𝑚
𝑇 𝑥𝑣𝑚 = 𝑣1𝑣𝑇𝑥 +⋯+ 𝑣𝑚𝑣𝑚
𝑇 𝑥 = (𝑣1𝑣1𝑇 +⋯+ 𝑣𝑚𝑣𝑚
𝑇 )𝑥 Temos duas propriedades importantes da matriz de projeção:
1. 𝑃𝑘 = 𝑃 , ∀𝑘 2. 𝑃𝑇 = 𝑃, 𝑃 é simétrica.
O posto da matriz de projeção será igual à dimensão de 𝑆. Agora, vamos aprender a construir bases ortonormais a partir de bases não ortonormais. Temos que �⃗⃗⃗�1, �⃗⃗⃗�2, �⃗⃗⃗�3 e �⃗⃗⃗�4 são vetores LI em ℝ𝑛. Tomemos �⃗⃗⃗�1:
�⃗⃗⃗�1 → 𝑣1 =𝑤1|𝑤1|
𝑃𝑤2 = ⟨𝑤2, 𝑣1⟩𝑣1
𝑤2 − 𝑃𝑤2 = 𝑤2 − ⟨𝑤2, 𝑣1⟩𝑣1
Então 𝑤2 − 𝑃𝑤2 ⊥ 𝑣1
Definimos
𝑣2 =𝑤2 − 𝑃𝑤2|𝑤2 − 𝑃𝑤2|
�⃗�1 está na mesma reta que 𝑤1 e |𝑣1| = 1. �⃗�2 ⊥ �⃗�1, |𝑣2| = 1 e 𝑣1 e 𝑣2 estão no mesmo plano que 𝑤1 e 𝑤2. �⃗�3 ⊥ �⃗�1, �⃗�3 ⊥ �⃗�2, |𝑣3| = 1, o cubespaço gerado por {𝑣1, 𝑣2, 𝑣3} é igual ao subespaço gerado por 𝑤1, 𝑤2, 𝑤3}. Considerando a projeção de 𝑤3 no subespaço gerado por {𝑣1, 𝑣2} =⟨𝑤3, 𝑣1⟩𝑣1 + ⟨𝑤3, 𝑣2⟩𝑣2. Considerando 𝑤3 menos essas projeção, temos 𝑤3 − ⟨𝑤3, 𝑣1⟩𝑣1 − ⟨𝑤3, 𝑣2⟩𝑣2. Normalizando:
O sistema 𝐴𝑥 = 𝑏 é equivalente a 𝑃1𝐴𝑥 = 𝑃1𝑏 que possui a forma [𝑥 𝑥 𝑥0 ∗ 𝑥0 ∗ 𝑥
] [
𝑥1𝑥2𝑥3] = [
𝑥𝑥𝑥]
Calculamos uma Householden tal que 𝑃2 [∗∗] = [
?0]
[1 0 00 𝑃20
] [𝑥∗∗] = [
𝑥?0]
Tenho um novo sistema equivalente:
[1 0 00 𝑃20
] 𝑃1𝐴𝑥 = [1 0 00 𝑃20
] 𝑃1𝑏
A questão é: por que alguém faria todo esse processo ao em vez de simplesmente escalonar? A resposta é que não há motivo algum para isso. É apenas mais um processor de resolução. Na minha opinião, o escalonamento é bem melhor. AUTOVALORES E AUTOVETORES Seja 𝐴 ∈ ℝ𝑛×𝑛, dizemos que 𝜆 ∈ ℝ é autovalor se existe �⃗� ≠ 0 tal que 𝐴�⃗� = 𝜆�⃗�. Por exemplo:
𝐴 = [2 00 3
]
𝐴 [10] = [
2 00 3
] [10] = [
20] = 2 [
10]
Logo, 2 é o autovalor.
𝐴 [01] = [
2 00 3
] [01] = [
03] = 3 [
01]
Logo, 3 é o autovalor.
Então 𝜆 é autovalor e implica: 𝐴�⃗� = 𝜆�⃗� → 𝐴�⃗� − 𝜆�⃗� = 0⃗⃗ → 𝐴�⃗� − 𝐼�⃗� = 0⃗⃗ → (𝐴 − 𝜆𝐼)�⃗� = 0 com �⃗� ≠ 0 → 𝐴 − 𝜆𝐼 é singular não invertível. Por exemplo:
[2 00 3
] − 2 [1 00 1
] = [0 00 1
]
det(𝐴 − 𝜆𝐼) = 0
Os autovalores de A são as soluções das equações det(𝐴 − 𝜆𝐼) = 0.
Como exemplo, vamos calcular os autovalores de (3 22 5
).
𝐴 − 𝜆𝐼 = (3 − 𝜆 22 5 − 𝜆
) → det(𝐴 − 𝜆𝐼) = (3 − 𝜆)(5 − 𝜆) − 2 ∙ 2 = 0
𝜆2 − 8𝜆 + 11 = 0
𝜆1 = 6,2 𝑒 𝜆2 = 2,2
O det (𝐴 − 𝜆𝐼) é igual a um polinômio de grau 𝑛. Por exemplo:
O que nos fornecerá algo do tipo: 𝑎𝜆3 + 𝑏𝜆2 + 𝑐𝜆 + 𝑑 O número de autovalores de uma matriz 𝑛 × 𝑛 é o número de soluções da equação det(𝐴 − 𝜆𝐼) = 0. O número de soluções é igual a 𝑛, levando em consideração soluções repetidas e complexas. Vejamos um exemplo:
𝜆 = 2 𝑜𝑢 1 − 𝜆 = √40 𝑜𝑢 1 − 𝜆 = −√40 Se 𝜆 é um autovalor de A, dizemos que �⃗� é um autovetor associado se 𝐴�⃗� = 𝜆�⃗�. Se �⃗� é autovetor e 𝜇 ∈ ℝ → 𝜇�⃗� também é autovetor: 𝐴𝜇�⃗� = 𝜇𝐴�⃗� = 𝜇𝜆�⃗� = 𝜆𝜇�⃗� Se uma matriz é simétrica, todos os autovalores são reais.
Se uma matriz é simétrica, autovetores correspondentes a autovalores diferentes são ortogonais. Por exemplo:
𝐴 = (1 33 5
)
Possui autovalores 𝜆1 = 3 + √13 e 𝜆2 = 3 − √13. Vamos ver que os autovetores são ortogonais. Tomemos um autovetor �⃗�1associado ao autovalor 𝜆1:
(1 33 5
) (𝑎𝑏) = (3 + √13) (
𝑎𝑏)
Onde �⃗�1 = (𝑎𝑏), o que nos fornece:
{𝑎 + 3𝑏 = (3 + √13)𝑎
3𝑎 + 5𝑏 = (3 + √13)𝑏
{[1 − (3 + √13)]𝑎 + 3𝑏 = 0
3𝑎 + [5 − (3 + √13)]𝑏 = 0
Multiplicando a segunda linha por (−2 − √13) e subtraindo da primeira linha multiplicada por
três, teremos 0𝑎 + 0𝑏 = 0. Assim, as soluções do sistema são as soluções de (−2 − √13)𝑎 +
3𝑏 = 0, de modo que:
𝑏 = 1, 𝑎 =3
2 + √13
O que nos dá o autovetor:
�⃗�1 = (
3
2 + √131
)
Se A é uma matriz simétrica, existe uma base de ℝ𝑛 formada por vetores ortonormais. Por exemplo:
𝐴 = (
2 0 0 00 3 0 000
00
50
0−1
)
Nessa matriz, a base de autovetores pode ser (
1000
)(
0100
)(
0010
)(
000−1
)
𝐴 = (
1000
) = (
2000
) = 2(
1000
)
O valor 2 é o autovalor associado ao autovetor (
1000
), e assim sucessivamente encontramos os
autovalores 3, 5 e 1. Outro exemplo:
𝐴 = [
3 0 0 00 3 0 000
00
10
0−2
]
Possui autovetores 3, 1 e -2, sendo que 3 possui multiplicidade 2 (pois aparece duas vezes).
Uma base de autovetores pode ser (
1000
)(
0100
)(
0010
)(
0001
)
Outra base é
(
√2/2
√2/200 )
(
−√2/2
√2/200 )
(
0010
)(
0001
)
Vejamos que tanto
(
√2/2
√2/200 )
como
(
−√2/2
√2/200 )
são autovetores com autovalor 3.
𝐴 =
(
√2/2
√2/200 )
= (
3 0 0 00 3 0 000
00
10
0−2
)
(
√2/2
√2/200 )
=
(
3√2/2
3√2/200 )
= 3
(
√2/2
√2/200 )
O conjunto de autovetores associados com um autovalor formam um subespaço. Para provar isso tomemos:
Logo, se 𝑣 e 𝑤 são autovetores associados a 𝜆 → 𝛼𝑣 + 𝛽𝑤 também é um autovetor associado a 𝜆. Por exemplo, o que significa dizer que uma matriz tenha o autovalor zero? Isso significa que existe um �⃗� ≠ 0 tal que 𝐴�⃗� = 0�⃗� = 0, logo, a matriz é singular. Vamos explorar a propriedade de que toda matriz simétrica tem um conjunto de vetores que formam uma base ortonormal. Matriz simétrica: A. Base ortonormal: �⃗�1, … , �⃗�𝑛 Autovalores associados: 𝜆1, … , 𝜆𝑛.
Nesse resultado, as colunas de 𝑄 são base de autovetores ortonormais e 𝐷 é a matriz diagonal com os autovalores correspondentes. Ou seja, 𝑄𝐷𝑄𝑇 é a decomposição espectral de A. Porém, ninguém sabe calcular a decomposição espectral de uma matriz. Para evitar essa frustação e dar um exemplo, faremos o contrário. Iremos inventar 𝑄 ∈ ℝ4×4: