This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Dada una matriz cuadrada real, A = (ai j ) ∈ Mn(R), sus autovalores son lasraíces de su polinomio característico
p(λ) = |A−λI | =
∣∣∣∣∣∣∣∣∣a11 −λ a12 . . . a1n
a21 a22 −λ . . . a2n...
... . . . ...an1 an2 . . . ann −λ
∣∣∣∣∣∣∣∣∣== (−1)nλn + (−1)n−1pn−1λ
n−1 +·· ·+p0
Por desarrollo directo, el coeficiente pn−1 = tr (A) = a11 +·· ·+ann coincidecon la suma de la diagonal principal de A y se le llama la traza de la matriz.
Haciendo λ = 0, en ambos lados, se ve que el coeficiente p0 = det(A) ∈ Rcoincide con el determinante de la matriz1.
Como p(λ) ∈R(λ), es un polinomio real de grado n, sabemos por el TeoremaFundamental del Álgebra2 que tiene exactamente n raíces complejas. O sea,n autovalores (contados con su multiplicidad), λ1, . . . ,λn ∈C, y se tiene
1Hay fórmulas para los demás coeficientes aunque son mas complicadas.2Todas sus demostraciones tienen una parte que cae fuera del alcance de estas notas.
Igualando coeficientes, en ambos miembros, se obtiene
pn−1 = tr (A) = a11 +·· ·+ann =λ1 +·· ·+λn
p0 = det(A) =λ1 · · ·λn
Así, dada una matriz cuadrada real A, hemos demostrado que
Lema 1. La suma de autovalores da la traza y su producto el determinante.
Si λ ∈C es un valor propio de A, el s.l. (A−λI )X = 0 tiene solución distintade cero y existe un vector, 0 6= v ∈Cn tal que Av =λv .
v se dice un autovector asociado a λ. El par (λ, v) es una autopareja de A.Así, si (λ, v) es una autopareja de A, se verifican las siguientes.
Lema 2. [Propiedades de los autovalores y autovectores]
1) (λ,µv) es una autopareja de A, para todo µ ∈R.2) (µλ, v) es una autopareja de µA, para todo µ ∈R.3) (1/λ, v) es una autopareja de A−1 (si existe).4) (λk , v) es una autopareja de Ak , para todo k ∈N.5) λ es un autovalor de At .
Demostración:
1) Av =λv implica A(µv) =λ(µv).2) Av =λv implica (µA)v = (µλ)v .
O sea, si son cuadradas y A o B es regular, hemos demostrado
Lema 3. AB y B A tienen exactamente los mismos autovalores. �
Aunque no sean cuadradas, si existen ambos productos AB y B A. Estas sonmatrices cuadradas y coinciden sus autovalores distintos de cero4.
Un caso muy simple es A = (1,1), B =(11
), AB = (2) y B A =
(1 11 1
)cuyo
polinomio característico es p(λ) = (1−λ)2−1 =λ2−2λ=λ(λ−2) y tiene losautovalores 0 y 2. Luego coincide el autovalor (2) distinto de cero.
3Cuando A es simétrica, si coinciden los autovectores por la izquierda y derecha.4Si A de dimensión mxn, B de dimensión nxm. La demostración es diferente.
Dada una base, B = {e1, . . . ,en} de V , por definición, la matriz de un endo-morfismo, A = (ai j ), por columnas son las coordenadas de f (e1), . . . , f (en)respecto de la propia base.
Si f (e j ) = a1 j e1+·· ·+an j en y B es ortonormal. Los coeficientes de Fourierson ai j = f (e j )•ei , ∀i , j = 1, . . . ,n. Entonces, si f es autoadjunta la matriz
ai j = f (e j )•ei = e j • f (ei ) = f (ei )•e j = a j i
es simétrica. Recíprocamente, si A es simétrica y B ortonormal6
f (x)• y = (AX )t Y = X t At Y = X t AY = X t f (Y ) = x • f (y)
y hemos demostrado, que respecto a una base B ortonormal
Lema 4. f es autoadjunta (simétrico) si, y sólo si su matriz es simétrica.
En lo que sigue, A = (ai j ) ∈ Mn(R), será una matriz simétrica real.
Lema 5. Los autovalores de A son todos números reales.
Demostración: Sea (λ, v) una autopareja compleja. O sea, un autovectorv = x+ yi ∈Cn , dondex, y ∈Rn , y un autovalor λ= a+bi ∈C, donde a,b ∈RAx + i Ay = A(x + yi ) = Av =λv = (a +bi )(x + yi ) = (ax −by)+ i (bx +ay)
6En este caso, el producto escalar se calcula como el usual, x • y = X t Y .
finalmente, como ‖x‖2 +‖y‖2 6= 0, b = 0 y λ= a ∈R es real. �
Ejemplo 3. Dada la matriz, A =(
10 −6−6 5
), su polinomio característico es
p(λ) =∣∣∣∣10−λ −6
−6 5−λ
∣∣∣∣=λ2 −15λ+14 = (λ−1)(λ−14) =⇒ 1,14 ∈R.
Sean {λ1, . . . ,λr } ⊂R, los autovalores distintos de A7.Para toda matriz cuadrada, espacios propios, Vλi , correspondientes a auto-valores distintos dan intersección cero. O sea, su suma es directa
U =Vλ1 ⊕·· ·⊕Vλr ⊂V =Rn
Por el teorema espectral, sabemos que A es diagonalizable por semejanza si,y sólo si U =Rn . Pero U 6=Rn ⇐⇒U⊥ 6= 0.
7El espectro tiene tamaño r ≤ n. Pero contados con su multiplicidad, en total, dan n.
Como, para todo autovector f (u) = Au =λu, se tiene f (U ) ⊂U .Si su complemento ortogonal U⊥ 6= 0, se tiene para todo u ∈U y v ∈U⊥
f (v)•u = v • f (u) = 0
O sea, f (U⊥) ⊂U⊥ y f : U⊥ →U⊥ será un endomorfismo.Tendrá al menos un autovector 0 6= v ∈ U⊥ y entonces, f (v) = λv ⇒ v ∈ Ucontradiciendo que U ∩U⊥ = {0}. Por tanto,
U =Vλ1 ⊕·· ·⊕Vλr =Rn
el endomorfismo será diagonalizable por semejanza y hemos demostrado el
Teorema 1. [espectral para matrices simétricas]Toda matriz simétrica real es diagonalizable en R.
O sea, A es diagonalizable por semejanza. Pero se puede decir algo mas.
Lema 6. Si λ,µ ∈R son autovalores distintos de f A, entonces Vλ⊥Vµ.
Por lo anterior, dada una matriz simétrica real A, podemos aplicar el métodode Gram-Schmidt, para obtener una base ortonormal para cada Vλ.
Por el lema anterior, su unión será una base de Rn , formada por autovectoresortonormales. La matriz por columnas de estos vectores, P , es una matrizortogonal, P t = P−1, tal que diagonaliza A. O sea,
P t AP = D =
λ1 . . . 0... . . . ...0 . . . λr
donde cada autovalor λi se repite con su multiplicidad.Asi, dadas matrices cuadradas, A,B ,P ∈ Mn(R), se dice que
Definición 2. A y B son congruentes-semejantes si A = P t BP y P t = P−1.A P , se le llama una matriz ortogonal o una semejanza-ortogonal.
Por lo anterior, para toda matriz simétrica real A ∈ Mn(R)
Corolario 1. A es congruente-semejante con la diagonal de sus autovalores.
Así, toda matriz simétrica real es diagonalizable por una semejanza-ortogonal.Toda semejanza P representa un cambio de base, g :Rn −→Rn ,tal que g (u) = Pu. Si además P t = P−1, se tiene
• El conjunto de las matrices ortogonales, de determinante uno, es laintersección de los dos anteriores,
SO(n) = SL(n)∩O(n)
se le llama el grupo especial ortogonal de orden n.
La importancia de estos grupos de matrices, está en que admiten interpretacióngeométrica y además permiten procesos algorítmicos10.
A ∈O(n), nos define una isometría, f :Rn →Rn , tal que f (u) = Au, ya que
u • v = ut v = ut At Av = (Au)t Av = f (u)• f (v)
Recíprocamente, si una aplicación verifica que u•v = f (u)• f (v), ∀u, v ∈Rn .Para la base canónica, {e1, . . . ,en}, se tiene que los coeficientes de Fourieryi = f (u)• f (ei ) = u •ei = xi son iguales. O sea, u = x1e1 +·· ·+xnen , y
f (u) = y1 f (e1)+·· ·+ yn f (en) = ( f (e1), . . . , f (en))
x1...
xn
= Au
donde A = ( f (e1), . . . , f (en)) =( a11 ... a1n
... ... ...an1 ... ann
)es la matriz ortogonal cuyas colum-
nas son las coordenadas de f (e j ) = a1 j e1 +·· ·+an j en11.
10Computacionalmente buenos o eficientes. Por ejemplo, para diagonalizar.11Que son vectores ortonormales, por preservar f productos escalares.
Además, la primera columna, f (e1) = (cos(θ),sin(θ)), representa gráfica-mente el vector e1 (eje x), girado θ grados en sentido levógiro12.
Análogamente, la segunda columna, f (e2) = (−sin(θ),cos(θ)), representagráficamente el vector e2 (eje y), girado θ grados en el mismo sentido.
Definición 5. Una isometría definida por la matriz ortogonal A =(
cos(θ) −sin(θ)sin(θ) cos(θ)
)es llamada una rotación levógira de ángulo θ.
5. INTERPRETACIÓN GEOMÉTRICA DE O(2).
Dados a,b ∈ R, tales que a2 +b2 = 1, siempre existe un ángulo θ ∈ R tal quea = cos(θ), b =−sin(θ)13, y A ∈ SO(2) determina una rotación levógira.
En realidad, A =(
a b−b a
)∈ SO(2), se puede interpretar también como un
giro en sentido dextrógiro. Basta tomar θ, tal que a = cos(θ) y b = sin(θ)14.
Corolario 4. Las isometrías directas de R2 son las rotaciones.
La última interpretación permite diagonalizar una matriz arbitraria, B .
12Contrario a las agujas de un reloj.13Por las propiedades de las funciones trigonométricas.14Toda rotación es levógira y dextrógira, la diferencia está en tomar ángulos opuestos.
otra reflexión H2 que multiplicada por la derecha diagonaliza A.
H1 AH2 =(−p2 −p2
0 0
)H2 =
(−(−2) 00 0
)=
(2 00 0
)Observamos, en este ejemplo, que la matriz diagonal es la misma17 del ejem-plo 6 (donde se diagonaliza por rotaciones).
Si usamos reflexiones, no es necesario calcular explícitamente las matricesde cambio H para obtener los productos y por tanto la diagonal. Además,conocemos de antemano la primera columna o fila del resultado.
Así, para toda A ∈ M2(R), existen matrices ortogonales18 U ,V ∈ O(2) talesque
V t AU = D =(d1 00 d2
)Como hemos visto, U y V no son únicas. Pero siempre A =V DU t .Aunque A, no sea simétrica. Siempre lo son sus grammianas, At A y A At .Luego ambas son diagonalizables por congruencia-semejanza. Además,
At A = (V DU t )t V DU t =U DV t V DU t =U DDU t =U D2U t
17Son los valores propios de A, que ya era diagonalizable por semejanza-ortogonal.18Pueden ser ambas reflexiones o rotaciones si se preserva el signo del determinante.
En caso contrario, hay que mezclar rotación y reflexión.
Como en esta descomposición, los valores propios aparecen en la diagonal yson únicos. Hemos demostrado que d 2
1 y d 22 son los valores propios de At A.
También se demuestra que d 21 y d 2
2 son los valores propios de A At .Por tanto, los elementos d1 y d2 que únicos salvo su signo y su orden.
Definición 8. Si 0 ≤ d1 ≤ d2, los llamamos los valores singulares de A.
Como siempre se pueden hacer positivos y/o reordenar multiplicando pormatrices ortogonales especiales. Tenemos
Corolario 6. Toda matriz A ∈ M2(R) tiene valores singulares únicos.
Como At A =U D2U t , la matriz ortogonal U ∈O(2), tiene por columnas unabase ortonormal de autovectores de At A. Análogamente, A At = V D2V t ytambién V ∈O(2) es una base de autovectores de A At .
Como V t AU = D ⇐⇒ AU = V D, hay correspondencia entre autovectores.Si u es autovector de At A, v de A At y d es un valor singular de A.
Definición 9. u y v se corresponden por valor singular si Au = d v .
Ejemplo 8. Para, A =(1 12 1
), sus grammianas At A =
(5 33 2
), At A =
(2 33 5
)tienen los autovalores positivos {6.8541,0.145898}. Sus raíces cuadradas{2.61803,0.381966} son los valores singulares de la matriz.
alizar a cualquier dimensión n. Así, si a2 +b2 = 1, una matriz
A =
1 . . . 0 . . . 0 . . . 0... . . . ...
......
0 . . . a . . . b . . . 0...
... . . . ......
0 . . . −b . . . a . . . 0...
...... . . . ...
0 . . . 0 . . . 0 . . . 1
∈ SO(n)
representa una rotación, tanto levógira como dextrógira, de dos de los ejes,manteniendo iguales los n −2 restantes.
Definición 10. Una matriz del tipo anterior es llamada una matriz de Givens.Se dice que es una rotación de los ejes i , j , respecto a los n −2 restantes.
Ejemplo 9. En R3, existen tres tipos de rotaciones o matrices de Givens,1 0 00 a b0 −b a
llamadas rotaciones respecto a los ejes x, y , z respectivamente
Ahora, toda matriz de orden nxn se puede diagonalizar con rotaciones.O sea, multiplicando a derecha e izquierda por matrices de Givens.
Análogamente al caso bidimensional, podemos definir reflexiones.Si u = (a1, . . . , an) ∈Rn , es un vector unitario, ‖u‖ = 1.Definimos H = I −2uut y la llamamos una matriz de Householder.
H =
1 . . . 0... . . . ...0 . . . 1
−2
a1...
an
(a1, . . . , an) =
1 . . . 0... . . . ...0 . . . 1
− 2a2
1 . . . 2a1an... . . . ...
2a1an . . . 2a2n
Lema 10. La matriz H = I −2uut , tiene las siguientes propiedades:
• Hu =−u.• H v = v para todo v ∈Rn tal que u⊥v .• H = H t .• H t = H−1.
Demostración:
• Como ut u = ‖u‖2 = 1, se tiene Hu = (I −2uut )u = u −2u =−u.• Si ut v = 0, se tiene H v = (I −2uut )v = v −0v = v .• H t = (I −2uut )t = I t −2(uut )t = I −2uut = H .• H 2 = (I−2uut )(I−2uut ) = I−4uut +4(uut )2 = I−4uut +4uut = I .
Ahora, suponemos dr 6= 0 y dr+1 = ·· · = dn = 0 y definimos vectores de Rm ,v j = 1
d jAu j
20 para j = 1, . . . ,r . Estos son ortonormales, ya que
v tj vk = 1
d j dkut
j At Auk = 1
d j dkut
j Buk = d 2k
d j dkut
j uk ={
0, Si j 6= k1, Si j = k
Podemos ampliar hasta una base ortonormal v1, . . . , vr , vr+1, . . . , vm de Rm .Así, la matriz por columnas V = (v1, . . . , vm) también es ortogonal. Ahora,para todo k > r , como Auk = 0 también v t
j Auk = 0. Y si k ≤ r , se tiene
v tj Auk = dk v t
j vk ={
0, Si j 6= kdk , Si j = k
Por tanto, la descomposición pedida es V t AU = D ⇐⇒ A =V DU t �
La demostración anterior es constructiva y se aplica a cada matriz para hallarsu descomposición por valores singulares. Como en el siguiente
Ejemplo 11. Para, A =(1 12 1
), su grammiana At A =
(1 21 1
)·(1 12 1
)=
(5 33 2
),
tiene por ecuación característica p(λ) = |A − λI | = (5 − λ)(2 − λ) − 32 =λ2 −7λ+1 = 0 cuyas raíces son los autovalores positivos{
7+3p
5
2,
7−3p
5
2
}= {6.8541,0.145898}
20Ésta es la condición. para la correspondencia entre autovectores izquierda y derecha.
Si para cada valor propio, se resuelven los s.l. y se normalizan sus solu-ciones se obtienen los vectores propios u1,u2 que escritos por columnas danla matriz U tal que Λ=U t At AU es diagonal21. O sea,(−0.850651 −0.525731
0.525731 −0.850651
)·(5 33 2
)·(−0.850651 0.525731−0.525731 −0.850651
)=
(6.8541 0
0 0.145898
)
Entonces, B = AU =(−1.37638 −0.32492−2.22703 0.200811
)y se tiene B t B =U t At AU =Λ.
Por tanto, las columnas de B son vectores ortogonales pero en general nounitarios (su norma son las raíces cuadradas de los valores propios de At A).
Estas raíces cuadradas positivas son los llamados valores singulares de A{d1,d2} = {
p6.8541,
p0.145898} = {2.61803,0.381966}
Si normalizamos las columnas de B = AU , dividiendo por d1 y d2, obtenemos
la matriz ortogonal V =(−0.525731 −0.850651−0.850651 0.525731
)cuyas columnas son los
vectores unitarios v1, v2 de la demostración. Además, por la definición de V
B = A ·U =(−0.525731 −0.850651−0.850651 0.525731
)·(2.61803 0
0 0.381966
)=V ·D
21U diagonaliza por congruencia-semejanza a la grammiana At A.
Finalmente, despejando A =V ·D ·U t encontramos su SVD. Explícitamente(1 12 1
)=
(−0.525731 −0.850651−0.850651 0.525731
)(2.61803 0
0 0.381966
)(−0.850651 −0.5257310.525731 −0.850651
)U y V en una SVD no son únicas, los d1 ≥ ·· · ≥ dp ≥ 0 si lo son. En efecto,
At A = (V DU t )t V DU t =U DV t V DU t =U DDU t =U D2U t
A At =V DU t (V DU t )t =V DDV t =V D2V t
Así, necesariamente los cuadrados d 2i son valores propios de At A y A At . Y
los di son únicos salvo su signo y su orden.
Definición 12. Si 0 ≤ di , ∀i , los llamamos los valores singulares de A.
Corolario 9. Toda matriz A tiene valores singulares únicos.
Como At A =U D2U t , la matriz ortogonal U ∈O(2), tiene por columnas unabase ortonormal de autovectores de At A. Análogamente, A At = V D2V t ytambién V ∈O(2) es una base de autovectores de A At .
Como V t AU = D ⇐⇒ AU = V D, hay correspondencia entre autovectores.Si u es autovector de At A, v de A At y d es un valor singular de A.
Definición 13. u y v se corresponden por valor singular si Au = d v .A v se le llama vector singular izquierda y a u vector singular derecha.
Como las matrices ortogonales U = (u1, . . . ,un) y V = (v1, . . . , vm) represen-tan cambios de base ortonormales, desde la canónica.
Para toda a.l. f :Rn →Rm , definida por f (u) = Au, con A ∈ Mmxn(R)
Corolario 10. Existen bases ortonormales en Rn y Rm tales que la matriz def , respecto de estas nuevas bases, es diagonal con entradas no negativas.
Como una a.l., f , definida por una matriz diagonal, con entradas no negati-vas, es una dilatación/contracción de ejes coordenados.El corolario nos dice que toda f es esencialmente una dilatación/contracción.
Ejemplo 12. Para, A =(2 3
7 62 01 9
), su grammiana At A =
(58 5757 126
)tiene los auto-
valores positivos {158.37,25.6298} y sus raíces cuadradas {12.5845,5.06259}son los valores singulares de A.
Los autovectores de At A son las columnas de U = (0.493823 −0.8695630.869563 0.493823
).
Ahora, para hallar la matriz V , lo que hacemos es calcular el producto
A·U =( 3.59633 −0.257657
8.67413 −3.1240.987645 −1.739138.31989 3.57484
)y normalizar sus columnas de forma que se obtiene
la igualdad A ·U =V ·D de donde se despeja A =V ·D ·U t
A es la matriz de una a.l. de R2 en R4 y la hemos descompuesto en unarotación en R2 definida por U 22, después una dilatación en R2 definida porla matriz diagonal D y después una a.l. de R2 en R4 definida por V .
Si ampliamos las 2 columnas de V hasta una base ortonormal de R4, tenemos
A =(2 3
7 62 01 9
)=
(0.285774 −0.0508943 ∗ ∗0.68927 −0.617076 ∗ ∗
0.078481 −0.343525 ∗ ∗0.661121 0.706129 ∗ ∗
)(12.5845 00 5.062590 00 0
)(0.493823 0.869563−0.869563 0.493823
)=V1·D1·U t
y las nuevas V1, D1 diagonalizan A At = (V1D1U t )(U D t1V t
1 ) =V1D1D t1V t
1
ya que D1D t1 =
(12.58452 0 0 0
0 5.062592 0 00 0 0 00 0 0 0
)=
(158.37 0 0 00 25.6298 0 00 0 0 00 0 0 0
)es diagonal
Cuando una matriz cuadrada A tiene determinante positivo se puede con-seguir que las matrices U y V sean de rotaciones. Si A tiene determinantenegativo, son una rotación y una reflexión. Además, siempre se tiene que
Lema 11. Si r ≤ n es tal que dr 6= 0 y dr+1 = 0. Entonces,
1) rango(A) = r .2) A = (v1, . . . , vr )diag{d1, . . . ,dr }(u1, . . . ,ur )t .3) N (A) = L(ur+1, . . . ,un) es el esp. nulo de A.4) C (A) = L(v1, . . . , vr ) es el esp. de columnas de A.
Demostración:22Porque U es una matriz ortogonal de determinante 1.
En particular, AB y B A son matrices simétricas por ser suma de simétricas.Además, se deduce otra demostración para la existencia de inversas laterales.
Corolario 11. Si A es de rango pleno. Entonces, B es inversa lateral de A.
En general, la matriz B anterior verifica las siguientes igualdades.
Para hallar su inversa de Moore-Penrose, calculamos el producto
A† =(0.707107 −0.7071070.707107 0.707107
)(1/2 0
0 0
)(0.707107 0.707107
−0.707107 0.707107
)=
(0.25 0.250.25 0.25
)
Ejemplo 14. El s.l.x + y = 1x + y = −1
}es incompatible porque el rango de la
matriz A =(1 11 1
)es uno y el de su matriz ampliada es dos.
Sin embargo, tiene una solución mínimo cuadrática que es el vector
A†b =(0.25 0.250.25 0.25
)(1
−1
)=
(00
)Así, el origen de coordenadas es el punto de la recta, imagen por la matrizA (= la bisectriz del primer cuadrante), más cercano al punto (1,−1).O sea, es la solución mínimo cuadrática del s.l.
Ejemplo 15. El s.l.x + y = 1x + y = 1
}es compatible indeterminado porque el
rango de su matriz y el de su ampliada es uno (menor que dos incógnitas).
La solución de norma mínima es el producto A†b =(0.25 0.250.25 0.25
)(11
)=
(0.50.5
).
Así, (0.5,0.5) es el punto de la recta, x + y = 1 de norma mínima.O sea, el más cercano al origen de coordenadas.
Como el área del paralelogramo, S, es dos veces el área de T, se tiene
S = 2T = ad −bc = |A|El dibujo de la izquierda se ha hecho suponiendo ad > bc. Si fuera alcontrario, estamos en el dibujo de la derecha, y los mismos cálculos danS = bc −ad = |det(A)| que es el valor absoluto del determinante.
Otra forma (vectorial) de hallar el área del mismo paralelogramo es
|A| =∣∣∣∣a cb d
∣∣∣∣= ad−bc = (d ,−c)
(ab
)= v⊥•u = ‖v⊥‖·‖u‖·cos(α) =±‖v‖·‖h‖
donde ‖v⊥‖ =p
c2 +d 2 = ‖v‖ es la longitud de la base‖h‖ = ‖u‖ ·cos(α) es la longitud de la proyección de u = (a,b) sobre v⊥.O sea, ‖h‖ es la altura del paralelogramo.Finalmente, el signo depende de cos(α) y es el signo del determinante.Los razonamientos anteriores sirven para todo u, v ∈R2. Así
Lema 14. S = |det(A)| es el área del paralelogramo formado por u, v .
Pero en Rn también dos vectores u y v forman un paralelogramo.Su área también se puede calcular como base por altura23.
Como λu es un vector cualquiera de la recta definida por u. Para que el vec-tor λu − v sea la altura del paralelogramo, basta suponer perpendicularidad
23En Rn , existen normas y la altura se calcula por perpendicularidad.
Aunque, no lo demostramos aquí diremos que la fórmula anterior, S =√
|At A|,cuando A ∈ Mmxn(R) es de rango pleno por columnas, calcula el volumen n-dimensional del paralelepípedo formado por sus n columnas.
Ejemplo 16. Dada la matriz A =2 2
1 01 1
el área del paralelogramo for-
mado por sus columnas, u = (2,1,1) y v = (2,0,1), se calcula como la raízcuadrada del determinante de su grammiana. Por tanto,
|At A| =∣∣∣∣u •u u • vu • v v • v
∣∣∣∣= ∣∣∣∣6 55 5
∣∣∣∣= 30−25 = 5 =⇒ S =√|At A| =p
5 = 2.23607
Si calculamos el determinante de la otra grammiana sale cero.Lo que indica que las tres filas de A son l.d. y forman un paralelepípedodegenerado de volumen cero.
los dos autovalores son números complejos de norma uno, ‖λ1‖ = ‖λ2‖ =pa2 +b2 = 1. O sea, pertenecen a la circunferencia unidad.
Además, como su grammiana asociada es la identidad
At A =(
a b−b a
)(a −bb a
)=
(1 00 1
)tiene autovalores 1 (doble) y los valores singulares de A son 1,1.Por tanto, k(A) = 1 y toda rotación está bien condicionada.
Ejemplo 19. Dada la matriz de una reflexión arbitraria A =(
a bb −a
), con
a2 +b2 = 1, sabemos que tiene los autovalores 1 y −1.
Además, también su grammiana asociada es la identidad
At A =(
a bb −a
)(a bb −a
)=
(1 00 1
)tiene autovalores 1 (doble) y de nuevo, los valores singulares de A son 1,1.Por tanto, k(A) = 1 y toda reflexión está bien condicionada.
En general, toda matriz ortogonal, A, tiene grammiana asociada la identidad,At A = I . Tiene todos sus valores singulares 1 y número de condición 1.
Cualquier isometría, en cualquier dimensión, tiene número de condición 1.Conforme el número de condición de una matriz se hace mayor, más se alejaA de ser una isometría y más se deformarán las figuras.
Por definición, el nº de condición de una matriz es siempre k(A) ≥ 1. Además
Lema 16. [Propiedades del nº de condición de una matriz]
1) k(A) = k(At ) = k(A−1).2) k(λA) = k(A) para 0 6=λ ∈R.3) k(At A) = k(A)2 ≥ k(A).4) k(A) = k(B), si A y B son semejantes.
Demostración:
1) Ya que las 2 matrices, At A y A At tienen los mismos autovalores,distintos de cero. Mientras que (A−1)t A−1 = (At A)−1 tiene por auto-valores los correspondientes inversos de los anteriores.
2) Ya que las 2 matrices, λA y A tienen los mismos autovalores.3) Ya que los autovalores de la matriz A son las raíces cuadradas posi-
tivas de los autovalores de At A.4) Si A y B son semejantes, también los son At A y B t B .
Estas tienen los mismos autovalores reales positivos.Por tanto, A y B tienen los mismos valores singulares.
En R2, la interpretación geométrica de la descomposición por valor singular(SVD) de una matriz es interesante por el impacto visual de f (X ) = AX .
El círculo unidad se transforma en una elipse, cuya deformación se mide pork(A), que coincide con el cociente de sus semiejes.
Tiene dos autovalores reales positivos, que son λ1 = 3.41421 y λ2 = 0.585786.
Por tanto, coinciden con sus valores singulares. Así, el número de condiciónde esta matriz es
k A = 3.41421
0.585787= 5.82843
Su descomposición SVD coincide con la de congruencia/semejanza(3 11 1
)=
( −0.92388 0.382683−0.382683 0.525731
)(3.41421 0
0 0.525731
)(−0.92388 −0.3826830.382683 −0.850651
)
Así la a.l, f (X ) = AX , es un automorfismo (A es regular) del plano, que
consiste primero en aplicar la rotación definida por(−0.92388 −0.382683
0.382683 −0.850651
)después una dilatación/contracción25 y después la rotación inversa.
Ambas rotaciones no se anulan porque la dilatación/contracción central de-forma los ángulos. El resultado final es una rotación de ejes que se calculadiagonalizando por congruencia/semejanza la matriz B = (A−1)t A−1 que esla que transforma el círculo unidad en la elipse 0.5s2 −2s ∗ t +2.5t 2 = 1.
Aquí, C2 es una matriz mucho más sencilla ya que, C2 = (−2), es esencial-mente un escalar y es inmediato que λ=−2 es el único autovalor que tiene.
En cambio, la matriz C1 como es 4× 4 tiene 4 (contando multiplicidades)autovalores complejos que aparentemente son difíciles de hallar ya que laecuación característica, |C1 −λI | = 0, es un determinante de orden 4×4.
Pero podemos aplicar la propiedad de que dos matrices semejantes tienenlos mismos autovalores. Por tanto, si aplicamos una trasformación elemen-tal de filas a C1 que equivale a multiplicar E ·C1 y luego la correspondiente(a E−1) transformación elemental de columnas. Entonces, la nueva matrizE C1E−1 tiene los mismos autovalores. Así, si restamos a la segunda fila laprimera y después sumamos la segunda columna a la primera
Si restamos a la 3ª fila la primera y sumamos la 3ª columna a la primera(−1 −2 1 −20 0 0 0−1 −2 1 −2−1 −2 1 −2
)∼
(−1 −2 1 −20 0 0 00 0 0 0−1 −2 1 −2
)∼
(0 −2 1 −20 0 0 00 0 0 00 −2 1 −2
)Finalmente, restamos a la 4ª fila la 1ª y sumamos la 4ª columna a la 1ª(0 −2 1 −2
0 0 0 00 0 0 00 −2 1 −2
)∼
(0 −2 1 −20 0 0 00 0 0 00 0 0 0
)∼
(−2 −2 1 −20 0 0 00 0 0 00 0 0 0
)Ahora, esta última matriz tiene de ecuación característica∣∣∣∣−2−λ −2 1 −2
0 −λ 0 00 0 −λ 00 0 0 −λ
∣∣∣∣ = (−λ)3(−2−λ) = 0
y por tanto los valores propios de C1 son λ= 0 triple y λ=−2 simple.
En el ejemplo, el producto B · A tiene de ecuación característica λ4−1 = λ3
veces la de A ·B y por tanto comparten el mismo autovalor distinto de cero(-2). Veremos que siempre se puede repetir el mismo proceso.
Como, A ·B tiene los mismos autovalores que P−1(A ·B) P = (P−1 A) · (B P )si demostramos que éste producto tiene los mismos distintos de cero que(B P ) · (P−1 A) = B · A, habremos demostrado que A ·B y B · A tienen losmismos autovalores no nulos.
Esto nos permite, cambiar una de las matrices por su forma normal de Her-mite (de filas o columnas según nos interese) para hacer la demostración deque tienen la misma ecuación característica salvo una potencia de λ.
Por ejemplo si r (B) = 1 podemos aplicar el algoritmo de transformacioneselementales de columnas para transformarla en su forma normal de Hermite,
B ·P =( 1 0 ... 0∗ 0 ... 0
...... ... ...∗ 0 ... 0
)
Como el otro producto P−1 A es una matriz arbitraria m×n, basta demostrarque tienen los mismos autovalores no nulos cuando B es de esa forma. O sea
A ·B =
a11 . . . a1n... . . . ...
am1 . . . amn
·
1 0 . . . 0
b21 0 . . . 0...
... . . . ...bn1 0 . . . 0
=
c11 0 . . . 0...
... . . . ...cm1 0 . . . 0
= C1
m ×n n ×m m ×m
Donde |C1 −λI | = (−λ)m−1(c11 −λ) = 0 es la ecuación característica de C1 =A ·B con c11 = a11+a12b21+·· ·+a1nbn1 el único autovalor distinto de cero.Ahora, para calcular los autovalores del otro producto
Pero podemos aplicar la propiedad de que dos matrices semejantes tienen losmismos autovalores. Por tanto, si aplicamos una trasformación elemental defilas a B que equivale a multiplicar E ·C2 y luego la correspondiente (a E−1)transformación elemental de columnas a A.
Entonces, la nueva matriz E C2E−1 tiene la misma ecuación característica.Así, si restamos en B a la segunda fila la primera multiplicada por b21 ydespués en A sumamos la segunda columna por b21 a la primera
B · A = 1 0 ... 0
b21 0 ... 0...
... ... ...bn1 0 ... 0
·( a11 ... a1n
... ... ...am1 ... amn
)∼
1 0 ... 00 0 ... 0
b31 0 ... 0...
... ... ...bn1 0 ... 0
·(
a11+a12b21 a12 ... a1n...
... ... ...am1+am2b21 am2 ... amn
)
Si aplicamos sucesivamente las trasformaciones de fila y columna para hacercero por debajo del 1 en la primera columna de B llegamos al producto
B · A ∼(1 0 ... 0
0 0 ... 0...
... ... ...0 0 ... 0
)· a11+∑n
i=2 a1i bi 1 a12 ... a1n
...... ... ...
am1+∑ni=2 ami bi 1 am2 ... amn
=a11+∑n
i=2 a1i bi 1 a12 ... a1n
0 0 ... 0...
... ... ...0 0 ... 0
y esta última tiene un único autovalor no nulo que es el mismo de A ·B27
λ= a11 +n∑
i=2a1i bi 1 = a11 +a12b21 +·· ·+a1nbn1 = c11
27Y la ecuación característica de B · A es la misma de A ·B salvo una potencia de λ.
Cuando el menor de los rangos de A y B es mayor que 1, la demostraciónes más compleja pero sigue los mismos pasos ya que el proceso anterior esalgorítmico y fácil de generalizar.
Empezamos con A ·B , con B la que tenga menor rango o menor número decolumnas, si no conocemos su rango, y transformamos B en su forma normalde Hermite por columnas H y el otro factor A de forma dual en A1.
Después seguimos transformando en el producto H · A1 haciendo ceros pordebajo de los unos hasta llegar a la forma normal de Hermite por filas H1 yde forma dual A1 en A2 y finalmente calculamos H1 ·A2 y comprobamos quesu ecuación característica es la misma de A1 ·H salvo un múltiplo de λ. Así
Teorema 4. Si existen A ·B y B · A tienen la misma ecuación característicasalvo λn−m y por tanto los mismos autovalores no nulos.
Ejemplo 22. Dadas las matrices A = (2 7 21 3 6
)y B =
(1 21 71 2
)para comprobar
que coinciden los autovalores no nulos de AB y B A. Transformamos primeroB , multiplicando la 1ª columna por -2 y sumando a la 2ª, dualmente trans-formamos A, multiplicando la 2ª fila por 2 y sumando a la 1ª. Después,dividimos por 5 la 2ª de B y dualmente multiplicamos por 5 la 2ª fila de A
Seguimos, multiplicando la 2ª columna de B por -1 y sumando a la 1ª, dual-mente la 1ª fila de A y sumando a la 2ª
A ·B ∼(4 13 145 15 30
)·1 0
1 11 0
∼(4 13 149 28 44
)·1 0
0 11 0
=(18 1353 28
)
Hemos llegado a la forma de Hermite por columnas de B y concluimos queel producto A·B tiene la misma ecuación característica que el producto final.
Ahora, le damos la vuelta al producto y seguimos calculando la forma deHermite por filas de B que se consigue multiplicando la 1ª fila de A por -1 ysumando a la 3ª, dualmente en B sumamos la 3ª a la 1ª columna
B · A ∼1 0
0 11 0
·(4 13 149 28 44
)∼
1 00 10 0
·(18 13 1453 28 44
)=
18 13 1453 28 44
0 0 0
Finalmente, se comprueba que la ecuación característica de B · A es∣∣∣∣∣∣
18−λ 13 1453 28−λ 440 0 −λ
∣∣∣∣∣∣ = −λ∣∣∣∣18−λ 13
53 28−λ
∣∣∣∣= 0
O sea, la misma de A ·B multiplicada por λ=λ3−2.Por tanto, tiene los mismos autovalores como queríamos demostrar.
12. APÉNDICE 2. UNA APLICACIÓN ESTADÍSTICA DE LA SVD.
Si tenemos n medidas de varias variables xi = {ai 1, . . . , ani }, i ∈ {1, . . . ,r }se pueden cambiar los valores a otras nuevas variables, z1, . . . , zr , que seanindependientes y sucesivamente de varianza máxima pero que recojan todala información de las anteriores.
Las nuevas variables son c.l. de las x1, . . . , xr y se obtienen usando la descom-posición por valor singular de la matriz de sus desviaciones de las medias.Para eso, se pasa de la matriz de las observaciones X a la matriz A = X − X .
X =( a11 ··· a1r
... ... ...an1 ··· anr
)7→ A = X −X =
( a11−m1 ··· a1r −mr... ... ...
an1−m1 ··· anr−mr
)donde mi = xi = ai 1+···+ani
n son las medias aritméticas de las variables.
Ahora, si diagonalizamos la grammiana At A por congruencia-semejanza. Osea, usando sus autovalores reales y sus autovectores normalizados tenemos
At1 A1 = (A ·U )t (A ·U ) =U t · At A ·U =Λ=
(λ1 ··· 0... ... ...0 ··· λr
)donde A1 = A ·U es una nueva matriz n × r , donde sus columnas son c.l. delas columnas de A. O sea, de las desviaciones de las variables originales.
Ahora, si llamamos z1, . . . , zr a las columnas de A1, las igualdades anterioresse traducen en que zi · zi =λi , zi · z j = 0 para cada i , j ∈ {1, . . . ,r }.
Por tanto, son perpendiculares dos a dos y cada vector zi tiene de norma laraíz cuadrada del valor propio λi (es positivo porque At A es simétrica real).
‖zi‖ =√
b21i +·· ·+b2
ni =p
zi · zi =√λi = di
Además, como las columnas de A = X − X tienen media cero, también lascolumnas zi de A1 tienen media aritmética cero ya que
Como los valores propios de una matriz simétrica real λ1 ≥λ2 ≥ ·· · ≥λr ≥ 0dan los máximos sucesivos de las normas que representan, se tiene que lasnuevas variables zi son sucesivamente de varianza máxima28. Como además,zi · z j = 0, estas variables tienen covarianza cero o sea son independientes.
Finalmente, los di son los valores singulares de A y la matriz A1 nos sirvepara encontrar su SVD ya que si normalizamos cada una de sus columnas,
28Con la condición de que sean c.l. por un vector unitario de las originales.
∗ zi obtenemos una matriz V formada por columnas unitarias y or-togonales tal que podemos despejar la descomposición por valor singular
A1 = A ·U =V ·(
d1 ··· 0... ... ...0 ··· dr
)=⇒ A =V ·
(d1 ··· 0... ... ...0 ··· dr
)·U t =V ·D ·U t
Ejemplo 23. Consideramos 4 medidas de dos variables x = {2, 7, 2, 1},y = {3, 6, 0, 1}, queremos hallar mediante c.l. de ellas otras dos nuevasvariables que sean independientes y sucesivamente de varianza máxima.
Ptrimero, escribimos la matriz de las observaciones, X =(2 3
7 62 01 9
), calculamos
las medias de sus columnas, x = 124 = 3, y = 18
4 = 4.5, sus desviaciones,
A = X −X =(2−3 3−4.5
7−3 6−4.52−3 0−4.51−3 9−4.5
)=
(−1 −1.54 1.5−1 −4.5−2 −4.5
)su grammiana, su polinomio característico que tiene por raíces los
At A = ( −1 4 −1 −2−1.5 1.5 −4.5 −4.5
)(−1 −1.54 1.5−1 −4.5−2 −4.5
)= (
22 33 45
) =⇒∣∣∣∣22−λ 3
3 45−λ
∣∣∣∣=λ2−67λ+981
autovalores λ1 = 45.3849 y λ2 = 21.6151 y sus raíces cuadradas que son losvalores singulares de A
d1 =p
45.3849 = 6.73683, d2 =p
21.6151 = 4.64921
Los autovectores de At A son las columnas de U = (0.127245 −0.9918710.991871 0.127245
Sus medias son cero ya que (z1, z2) = 1n (1, . . . ,1) ·Z y entonces
Z = A ·U =(
X −X)·U = X ·U −X ·U
=⇒ (z1, z2) = 1n (1, . . . ,1) ·Z = ( 1
n (1, . . . ,1) ·X) ·U −
(1n (1, . . . ,1) ·X
)·U
=⇒ (z1, z2) = (x, y) ·U − (x, y) ·U = (0,0)
En particular, hay otras dos variables independientes trasformadas tambiénpor la matriz U de los vectores singulares derecha, que son las dos columnasdel producto X ·U cuyas medias calculadas son, (x, y) ·U , una c.l. de lasmedias originales y cuyas varianzas son las mismas de z1 y z2.
por congruencia-semejanza. Halla su descomposición de valor singular.
Ejercicio 9. Dada la matriz A =1 1 2
1 1 20 1 1
¿ Se puede diagonalizar por
congruencia-semejanza ? ¿Y por semejanza ?. Halla su SVD.
Ejercicio 10. Dada la matriz A =1 1 1
1 1 20 1 1
¿ Se puede diagonalizar por
congruencia-semejanza ? ¿Y por semejanza ?. Halla su SVD. Compara lasdistintas factorizaciones o descomposiciones de A.
14. TEST DE REPASO.
Para comenzar el cuestionario pulsa el botón de inicio.Cuando termines pulsa el botón de finalizar.Para marcar una respuesta coloca el ratón en la letra correspondiente y pulsael botón de la izquierda (del ratón).
1. Dada una matriz cuadrada, A ∈ Mn(R).(a) La traza de A es un invariante por semejanza pero no su det(A).(b) El determinante de A es un invariante por semejanza pero no su traza.(c) La traza de A y su |A|, se calculan con sus autovalores.(d) Ni su traza, ni su determinante, son invariantes por semejanza.
2. Dada una matriz cuadrada regular, A ∈ Mn(R).(a) Los autovalores de A son los mismos de A−1.(b) Los autovalores de A son los inversos de At .(c) Los autovalores de A son los mismos de A2.(d) Los autovalores de A son los mismos de At .
3. Si A es de dimensión mxn y B de dimensión nxm.(a) AB y B A tienen exactamente los mismos autovalores.(b) AB y B A tienen exactamente los mismos autovectores.(c) A At y At A tienen exactamente los mismos autovalores.(d) A At y At A tienen exactamente los mismos autovectores.
4. ¿Cuál de las siguientes afirmaciones es verdadera?.(a) Matrices congruentes tienen los mismos autovalores.(b) Matrices congruentes tienen los mismos autovectores.
(c) Dos matrices semejantes son también congruentes.(d) Matrices semejantes tienen los mismos autovalores.
5. Dada una matriz simétrica, A ∈ Mn(R).(a) A es diagonalizable, en R, por semejanza pero no por congruencia.(b) A es diagonalizable, en R, por congruencia pero no por semejanza.(c) A no es diagonalizable en R.(d) A es diagonalizable, en R, por una congruencia-semejanza.
6. ¿Cuál de las siguientes afirmaciones es verdadera?.(a) Toda semejanza preserva productos escalares, normas y ángulos.(b) Si un endomorfismo preserva ángulos también preserva normas.(c) Ninguna semejanza preserva productos escalares, normas y ángulos.(d) Si un endomorfismo preserva normas también preserva ángulos.
7. Dado un endomorfismo f : Rn →Rn , tal que f (u) = Au.(a) f es isometría si preserva ángulos.(b) f es isometría si A ∈GL(n).(c) f es isometría si A ∈O(n).(d) f es isometría si A ∈ SL(n).
8. Dado un homomorfismo f : R2 →R2, tal que f (u) = Au.(a) A ∈O(2) si, y sólo si es una reflexión.(b) A ∈O(2)−SL(2) si, y sólo si es una rotación.(c) A ∈O(2) si, y sólo si es una rotación.(d) Si A ∈O(2) puede ser una rotación o una reflexión.
9. ¿Cuál de las siguientes afirmaciones es verdadera?.(a) Una rotación levógira no puede ser dextrógira.(b) Sólo hay una rotación que es levógira y dextrógira a la vez.(c) Existen reflexiones levógiras pero no dextrógiras.(d) No existen reflexiones levógiras ni dextrógiras.
10. ¿Cuál de las siguientes afirmaciones es verdadera?.(a) Toda matriz se puede diagonalizar con rotaciones pero no con reflex-
iones.(b) Toda matriz se puede diagonalizar con reflexiones pero no con rota-
ciones.(c) Toda matriz se puede diagonalizar con reflexiones y/o con rotaciones.(d) Para diagonalizar ortogonalmete, hay que hacerlo con rotaciones a la