Dada una matriz real
A
∈
M
m
×
n
(
R
)
{\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )}
, los valores propios de la matriz cuadrada , simétrica y semidefinida positiva
A
t
A
∈
M
n
(
R
)
{\displaystyle A^{t}A\in {\mathcal {M}}_{n}(\mathbb {R} )}
son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:
(
A
t
A
)
t
=
A
t
(
A
t
)
t
=
A
t
A
{\displaystyle (A^{t}A)^{t}=A^{t}(A^{t})^{t}=A^{t}A}
, o sea que es simétrica .
⟨
x
,
A
t
A
x
⟩
=
x
t
A
t
A
x
=
(
A
x
)
t
A
x
=
‖
A
x
‖
2
≥
0
{\displaystyle \langle x,A^{t}Ax\rangle =x^{t}A^{t}Ax=(Ax)^{t}Ax=\|Ax\|^{2}\geq 0}
, es decir
A
T
A
{\displaystyle A^{T}A}
es semidefinida positiva .
Por ser
A
t
A
{\displaystyle A^{t}A}
una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración .
Sean
λ
1
≥
λ
2
≥
⋯
≥
λ
n
≥
0
{\displaystyle \lambda _{1}\geq \lambda _{2}\geq \cdots \geq \lambda _{n}\geq 0}
los valores propios de la matriz
A
t
A
{\displaystyle A^{t}A}
ordenados de mayor a menor. Entonces
σ
i
:=
λ
i
{\displaystyle \sigma _{i}:={\sqrt {\lambda _{i}}}}
es el
i
{\displaystyle i}
-ésimo valor singular de la matriz
A
{\displaystyle A}
.
Sea
A
∈
M
m
×
n
(
R
)
{\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )}
y
λ
1
≥
⋯
≥
λ
r
>
λ
r
1
=
⋯
=
λ
n
=
0
{\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r 1}=\cdots =\lambda _{n}=0}
los valores propios de
A
t
A
{\displaystyle A^{t}A}
. Es decir, los primeros
r
{\displaystyle r}
valores propios no nulos, ordenados de manera decreciente, y los
n
−
r
{\displaystyle n-r}
valores propios nulos.
Sea
(
v
1
,
…
,
v
n
)
{\displaystyle (v_{1},\ldots ,v_{n})}
una base ortonormal de
R
n
{\displaystyle \mathbb {R} ^{n}\,}
formada por valores propios de
A
T
A
{\displaystyle A^{T}A}
—que existe por el teorema espectral —. Entonces:
Los vectores
A
v
1
,
…
,
A
v
r
{\displaystyle Av_{1},\ldots ,Av_{r}}
son ortogonales dos a dos y
‖
A
v
i
‖
=
λ
i
=
σ
i
{\displaystyle \|Av_{i}\|={\sqrt {\lambda _{i}}}=\sigma _{i}}
.
(
1
σ
1
A
v
1
,
…
,
1
σ
r
A
v
r
)
{\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}}
es una base ortonormal del subespacio fundamental
Col
(
A
)
{\displaystyle \operatorname {Col} (A)}
.
(
v
r
1
,
…
,
v
n
)
{\displaystyle (v_{r 1},\ldots ,v_{n})}
es una base ortonormal del subespacio fundamental
Nul
(
A
)
{\displaystyle \operatorname {Nul} (A)}
.
rg
(
A
)
=
r
{\displaystyle \operatorname {rg} (A)=r}
es decir, el rango de la matriz
A
{\displaystyle A}
coincide con la cantidad de valores singulares no nulos.
⟨
A
v
i
,
A
v
j
⟩
=
v
i
t
A
t
A
v
j
=
λ
j
v
i
t
v
j
=
{
λ
j
i
=
j
0
i
≠
j
{\displaystyle \langle Av_{i},Av_{j}\rangle =v_{i}^{t}A^{t}Av_{j}=\lambda _{j}v_{i}^{t}v_{j}={\begin{cases}\lambda _{j}&i=j\\0&i\neq j\end{cases}}}
. Teniendo en cuenta este resultado,
‖
A
v
i
‖
=
⟨
A
v
i
,
A
v
i
⟩
=
λ
i
=
σ
i
{\displaystyle \|Av_{i}\|={\sqrt {\langle Av_{i},Av_{i}\rangle }}={\sqrt {\lambda _{i}}}=\sigma _{i}}
.
Como la familia de vectores
(
v
i
)
1
≤
i
≤
r
{\displaystyle (v_{i})_{1\leq i\leq r}}
es ortonormal —en particular, linealmente independiente —, los productos
A
v
i
{\displaystyle Av_{i}}
son combinaciones lineales de las columnas de
A
{\displaystyle A}
, por lo que el subespacio generado por estos productos está contenido en
Col
(
A
)
{\displaystyle \operatorname {Col} (A)}
. Además, los vectores
A
v
1
,
…
,
A
v
r
{\displaystyle Av_{1},\ldots ,Av_{r}}
son ortogonales dos a dos —en particular, linealmente independientes —, por lo tanto deducimos que
dim
(
⟨
1
σ
1
A
v
1
,
…
,
1
σ
r
A
v
r
⟩
)
=
r
=
dim
(
Col
(
A
)
)
{\displaystyle \dim {\big (}{\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }{\big )}=r=\dim(\operatorname {Col} (A))}
, de donde
Col
(
A
)
=
⟨
1
σ
1
A
v
1
,
…
,
1
σ
r
A
v
r
⟩
{\displaystyle \operatorname {Col} (A)={\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }}
. Así, teniendo en cuenta lo demostrado en el punto anterior,
(
1
σ
1
A
v
1
,
…
,
1
σ
r
A
v
r
)
{\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}}
es una base ortonormal de
Col
(
A
)
{\displaystyle \operatorname {Col} (A)}
.
Es claro que si la familia de vectores
(
v
i
)
r
<
i
≤
n
{\displaystyle (v_{i})_{r<i\leq n}}
, está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que
Nul
(
A
)
=
Nul
(
A
t
A
)
{\displaystyle \operatorname {Nul} (A)=\operatorname {Nul} (A^{t}A)}
—demostración en el último punto de esta lista de propiedades— se ve que
(
v
r
1
,
…
,
v
n
)
{\displaystyle (v_{r 1},\ldots ,v_{n})}
es una base ortonormal de
Nul
(
A
)
{\displaystyle \operatorname {Nul} (A)}
Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que
rg
(
A
)
=
r
{\displaystyle \operatorname {rg} (A)=r}
.
Descomposición en valores singulares de una matriz
editar
Una DVS de
A
∈
M
m
×
n
(
R
)
{\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )}
es una factorización del tipo
A
=
U
Σ
V
t
{\displaystyle A=U\Sigma V^{t}}
con
U
∈
M
m
(
R
)
{\displaystyle U\in {\mathcal {M}}_{m}(\mathbb {R} )}
y
V
∈
M
n
(
R
)
{\displaystyle V\in {\mathcal {M}}_{n}(\mathbb {R} )}
ortogonales y
Σ
∈
M
m
×
n
(
R
)
{\displaystyle \Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )}
una matriz formada por los valores singulares de
A
{\displaystyle A}
en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.
Toda matriz
A
∈
M
m
×
n
(
R
)
{\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )}
admite una DVS.
Sean
λ
1
≥
⋯
≥
λ
r
>
λ
r
1
=
⋯
=
λ
n
=
0
{\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r 1}=\cdots =\lambda _{n}=0}
los valores propios de
A
t
A
∈
M
n
(
R
)
{\displaystyle A^{t}A\in {\mathcal {M}}_{n}(\mathbb {R} )}
ordenados de esta manera. Sea
(
v
1
,
…
,
v
n
)
{\displaystyle (v_{1},\ldots ,v_{n})}
una base ortonormal de
R
n
{\displaystyle \mathbb {R} ^{n}}
formada por vectores propios de
A
t
A
{\displaystyle A^{t}A}
, cada uno asociado —en orden— a un valor propio .
Recordemos que los vectores
A
v
1
,
…
,
A
v
n
{\displaystyle Av_{1},\ldots ,Av_{n}}
son ortogonales dos a dos, con
A
v
r
1
=
⋯
=
A
v
m
=
0
{\displaystyle Av_{r 1}=\cdots =Av_{m}=0}
. Si llamamos
u
1
:=
1
σ
1
A
v
1
,
…
,
u
r
:=
1
σ
r
A
v
r
{\displaystyle u_{1}:={\frac {1}{\sigma _{1}}}Av_{1},\ldots ,u_{r}:={\frac {1}{\sigma _{r}}}Av_{r}}
, vemos que:
u
1
,
…
,
u
r
{\displaystyle u_{1},\ldots ,u_{r}}
son ortonormales. Entonces, si
r
<
m
{\displaystyle r<m}
, podemos completar con vectores
u
r
1
,
…
,
u
m
{\displaystyle u_{r 1},\ldots ,u_{m}}
hasta formar una base ortonormal de
R
m
{\displaystyle \mathbb {R} ^{m}}
{
A
v
1
=
σ
1
u
1
⋮
A
v
r
=
σ
r
u
r
A
v
r
1
=
0
⋮
A
v
n
=
0
{\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\\vdots \\Av_{r}=\sigma _{r}u_{r}\\Av_{r 1}=0\\\vdots \\Av_{n}=0\end{array}}\right.}
Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices
V
=
(
|
|
v
1
⋯
v
n
|
|
)
∈
M
n
(
R
)
{\displaystyle V={\begin{pmatrix}|&&|\\v_{1}&\cdots &v_{n}\\|&&|\end{pmatrix}}\in {\mathcal {M}}_{n}(\mathbb {R} )}
ortogonal y
U
Σ
=
(
|
|
u
1
⋯
u
m
|
|
)
⏟
U
∈
M
m
(
R
)
ortogonal
(
σ
1
0
⋯
0
0
⋯
0
0
σ
2
⋯
0
0
⋯
0
⋮
⋮
⋱
⋮
⋮
⋱
⋮
0
0
⋯
σ
r
0
⋯
0
0
0
⋯
0
0
⋯
0
⋮
⋮
⋱
⋮
⋮
⋱
⋮
0
0
⋯
0
0
⋯
0
)
⏟
Σ
∈
M
m
×
n
(
R
)
=
(
|
|
|
|
σ
1
u
1
⋯
σ
r
u
r
0
⋯
0
|
|
|
|
)
{\displaystyle U\Sigma =\underbrace {\begin{pmatrix}|&&|\\u_{1}&\cdots &u_{m}\\|&&|\end{pmatrix}} _{U\in {\mathcal {M}}_{m}(\mathbb {R} ){\text{ ortogonal}}}\underbrace {\begin{pmatrix}\sigma _{1}&0&\cdots &0&0&\cdots &0\\0&\sigma _{2}&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &\sigma _{r}&0&\cdots &0\\0&0&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &0&0&\cdots &0\\\end{pmatrix}} _{\Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )}={\begin{pmatrix}|&&|&|&&|\\\sigma _{1}u_{1}&\cdots &\sigma _{r}u_{r}&0&\cdots &0\\|&&|&|&&|\end{pmatrix}}}
Claramente
A
V
=
U
Σ
{\displaystyle AV=U\Sigma \,}
y, finalmente, como
V
{\displaystyle V}
es una matriz ortogonal ,
A
=
U
Σ
V
t
{\displaystyle A=U\Sigma V^{t}}
. Esta es la ecuación de una DVS de
A
{\displaystyle A\,}
.
Viendo esta descomposición, es claro que la matriz
A
{\displaystyle A}
puede escribirse como combinación lineal de matrices de rango 1 tal que:
A
=
∑
i
=
1
r
σ
i
u
i
v
i
t
{\displaystyle A=\sum _{i=1}^{r}\sigma _{i}u_{i}v_{i}^{t}}
Descomposición en valores singulares reducida (DVS reducida)
editar
Este tipo de descomposición resulta de quedarse sólo con los
r
{\displaystyle r}
vectores propios unitarios asociados a los
r
{\displaystyle r}
valores singulares no nulos. Las matrices
U
{\displaystyle U}
,
V
{\displaystyle V}
y
Σ
{\displaystyle \Sigma }
entonces son:
U
r
=
(
|
|
u
1
⋯
u
r
|
|
)
t
{\displaystyle U_{r}={\begin{pmatrix}|&&|\\u_{1}&\cdots &u_{r}\\|&&|\end{pmatrix}}^{t}}
V
r
=
(
|
|
v
1
⋯
v
r
|
|
)
t
{\displaystyle V_{r}={\begin{pmatrix}|&&|\\v_{1}&\cdots &v_{r}\\|&&|\end{pmatrix}}^{t}}
Σ
r
=
diag
(
σ
1
,
…
,
σ
r
)
{\displaystyle \Sigma _{r}=\operatorname {diag} (\sigma _{1},\ldots ,\sigma _{r})}
A
=
U
r
Σ
r
V
r
t
{\displaystyle A=U_{r}\Sigma _{r}V_{r}^{t}}
Observación:
Σ
r
{\displaystyle \Sigma _{r}}
es una matriz diagonal de tamaño
r
×
r
{\displaystyle r\times r}
.
Las matrices a continuación denotadas con la letra
P
{\displaystyle P}
, son de proyección sobre el subespacio indicado. Las matrices denotadas con
Id
{\displaystyle \operatorname {Id} }
son las identidades del orden denotado.
P
Col
(
A
)
=
U
r
U
r
t
{\displaystyle P_{\operatorname {Col} (A)}=U_{r}U_{r}^{t}}
P
Nul
(
A
t
)
=
Id
m
−
U
r
U
r
t
=
U
m
−
r
U
m
−
r
t
{\displaystyle P_{\operatorname {Nul} (A^{t})}={\operatorname {Id} _{m}}-U_{r}U_{r}^{t}=U_{m-r}U_{m-r}^{t}}
P
Fil
(
A
)
=
V
r
V
r
t
{\displaystyle P_{\operatorname {Fil} (A)}=V_{r}V_{r}^{t}}
P
Nul
(
A
)
=
Id
n
−
V
r
V
r
t
=
V
n
−
r
V
n
−
r
t
{\displaystyle P_{\operatorname {Nul} (A)}={\operatorname {Id} _{n}}-V_{r}V_{r}^{t}=V_{n-r}V_{n-r}^{t}}
U
r
t
U
r
=
U
m
−
r
t
U
m
−
r
=
Id
m
{\displaystyle U_{r}^{t}U_{r}=U_{m-r}^{t}U_{m-r}=\operatorname {Id} _{m}}
V
r
t
V
r
=
V
n
−
r
t
V
n
−
r
=
Id
n
{\displaystyle V_{r}^{t}V_{r}=V_{n-r}^{t}V_{n-r}=\operatorname {Id} _{n}}
(
u
1
,
…
,
u
r
)
{\displaystyle (u_{1},\ldots ,u_{r})}
es una base ortonormal de
Col
(
A
)
{\displaystyle \operatorname {Col} (A)}
(
u
r
1
,
…
,
u
m
)
{\displaystyle (u_{r 1},\ldots ,u_{m})}
es una base ortonormal de
Nul
(
A
t
)
{\displaystyle \operatorname {Nul} (A^{t})}
(
v
1
,
…
,
v
r
)
{\displaystyle (v_{1},\ldots ,v_{r})}
es una base ortonormal de
Fil
(
A
)
{\displaystyle \operatorname {Fil} (A)}
(
v
r
1
,
…
,
v
n
)
{\displaystyle (v_{r 1},\ldots ,v_{n})}
es una base ortonormal de
Nul
(
A
)
{\displaystyle \operatorname {Nul} (A)}
A
=
U
Σ
V
t
{\displaystyle A=U\Sigma V^{t}}
implica que
A
t
=
(
U
Σ
V
t
)
t
=
V
Σ
t
U
t
{\displaystyle A^{t}=(U\Sigma V^{t})^{t}=V\Sigma ^{t}U^{t}}
.
A
t
A
=
V
Σ
t
U
t
U
Σ
V
t
⇔
A
t
=
V
Σ
t
Σ
V
t
⇔
A
t
A
=
V
r
diag
(
λ
1
,
…
,
λ
r
)
V
r
t
{\displaystyle A^{t}A=V\Sigma ^{t}U^{t}U\Sigma V^{t}\Leftrightarrow A^{t}=V\Sigma ^{t}\Sigma V^{t}\Leftrightarrow A^{t}A=V_{r}\operatorname {diag} (\lambda _{1},\ldots ,\lambda _{r})V_{r}^{t}}
—una diagonalización ortogonal de
A
t
A
{\displaystyle A^{t}A}
—.
Las matrices simétricas
A
t
A
∈
M
n
(
R
)
{\displaystyle A^{t}A\in {\mathcal {M}}_{n}(\mathbb {R} )}
y
A
A
t
∈
M
m
(
R
)
{\displaystyle AA^{t}\in {\mathcal {M}}_{m}(\mathbb {R} )}
tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz
A
{\displaystyle A}
pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto
{
u
1
,
…
,
u
r
}
{\displaystyle \{u_{1},\ldots ,u_{r}\}}
son vectores propios de
A
A
t
∈
M
m
(
R
)
{\displaystyle AA^{t}\in {\mathcal {M}}_{m}(\mathbb {R} )}
y también, como ya se mencionó,
Nul
(
A
t
)
=
⟨
u
r
1
,
…
,
u
m
⟩
{\displaystyle \operatorname {Nul} (A^{t})=\langle u_{r 1},\ldots ,u_{m}\rangle }
. Esto es fácil de ver, teniendo en cuenta que
∀
1
≤
i
≤
r
,
A
v
i
=
σ
i
u
i
⇔
A
A
t
A
v
i
⏟
λ
i
v
i
=
σ
i
A
A
t
u
i
⇔
λ
i
A
v
i
=
σ
i
2
A
v
i
⏟
σ
i
u
i
=
σ
i
⋅
A
A
t
u
i
⇔
A
A
t
u
i
=
σ
i
2
u
i
=
λ
i
u
i
{\displaystyle \forall 1\leq i\leq r,\ Av_{i}=\sigma _{i}u_{i}\Leftrightarrow A\underbrace {A^{t}Av_{i}} _{\lambda _{i}v_{i}}=\sigma _{i}AA^{t}u_{i}\Leftrightarrow \lambda _{i}Av_{i}=\sigma _{i}^{2}\underbrace {Av_{i}} _{\sigma _{i}u_{i}}=\sigma _{i}\cdot AA^{t}u_{i}\Leftrightarrow AA^{t}u_{i}=\sigma _{i}^{2}u_{i}=\lambda _{i}u_{i}}
Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada
A
∈
M
2
×
8
(
R
)
{\displaystyle A\in {\mathcal {M}}_{2\times 8}(\mathbb {R} )}
, entonces
A
t
A
∈
M
8
(
R
)
{\displaystyle A^{t}A\in {\mathcal {M}}_{8}(\mathbb {R} )}
tiene un polinomio característico de grado 8 y
A
A
t
∈
M
2
(
R
)
{\displaystyle AA^{t}\in {\mathcal {M}}_{2}(\mathbb {R} )}
tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de
A
{\displaystyle A}
se hace más sencillo.
Ejemplos de cálculo de DVS
editar
Si
A
=
(
0
0
0
9
3
0
)
{\displaystyle A={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}}
, entonces
A
t
A
=
(
9
0
0
81
)
{\displaystyle A^{t}A={\begin{pmatrix}9&0\\0&81\end{pmatrix}}}
, cuyos autovalores son
λ
1
=
81
{\displaystyle \lambda _{1}=81}
y
λ
2
=
9
{\displaystyle \lambda _{2}=9}
asociados a los autovectores
v
1
=
(
0
,
1
)
{\displaystyle v_{1}=(0,1)}
y
v
2
=
(
1
,
0
)
{\displaystyle v_{2}=(1,0)}
. Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas ).
Entonces, los valores singulares de
A
{\displaystyle A}
son
σ
1
=
81
=
9
{\displaystyle \sigma _{1}={\sqrt {81}}=9}
y
σ
2
=
9
=
3
{\displaystyle \sigma _{2}={\sqrt {9}}=3}
. Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.
Ahora buscamos los vectores
u
1
,
u
2
,
u
3
∈
R
3
{\displaystyle u_{1},u_{2},u_{3}\in \mathbb {R} ^{3}}
que deberán cumplir
{
A
v
1
=
σ
1
u
1
A
v
2
=
σ
2
u
2
A
v
3
=
0
{\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\Av_{2}=\sigma _{2}u_{2}\\Av_{3}=0\end{array}}\right.}
Esto es
u
1
=
1
σ
1
A
v
1
=
1
9
(
0
,
9
,
0
)
=
(
0
,
1
,
0
)
{\displaystyle u_{1}={\frac {1}{\sigma _{1}}}Av_{1}={\frac {1}{9}}(0,9,0)=(0,1,0)}
y
u
2
=
1
σ
2
A
v
2
=
1
3
(
0
,
0
,
3
)
=
(
0
,
0
,
1
)
{\displaystyle u_{2}={\frac {1}{\sigma _{2}}}Av_{2}={\frac {1}{3}}(0,0,3)=(0,0,1)}
.
Entonces completamos a una base ortonormal de
R
3
{\displaystyle \mathbb {R} ^{3}}
,
(
(
0
,
1
,
0
)
,
(
0
,
0
,
1
)
,
(
1
,
0
,
0
)
)
{\displaystyle ((0,1,0),(0,0,1),(1,0,0))}
.
Nuestras matrices ortogonales son:
U
=
(
0
0
1
1
0
0
0
1
0
)
{\displaystyle U={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}}
y
V
=
(
0
1
1
0
)
{\displaystyle V={\begin{pmatrix}0&1\\1&0\end{pmatrix}}}
Y la matriz compuesta por los valores singulares ordenados :
Σ
=
(
9
0
0
3
0
0
)
{\displaystyle \Sigma ={\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}}
Por lo tanto la DVS de
A
{\displaystyle A\,}
es:
A
=
(
0
0
1
1
0
0
0
1
0
)
(
9
0
0
3
0
0
)
(
0
1
1
0
)
=
9
(
0
1
0
)
(
0
1
)
3
(
0
0
1
)
(
1
0
)
=
(
0
0
0
9
3
0
)
{\displaystyle A={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}=9{\begin{pmatrix}0\\1\\0\end{pmatrix}}{\begin{pmatrix}0&1\end{pmatrix}} 3{\begin{pmatrix}0\\0\\1\end{pmatrix}}{\begin{pmatrix}1&0\end{pmatrix}}={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}}
.
Y la DVS reducida es
A
=
(
0
0
1
0
0
1
)
(
9
0
0
3
)
(
0
1
1
0
)
{\displaystyle A={\begin{pmatrix}0&0\\1&0\\0&1\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}}
Observación: No siempre ocurre que
V
=
V
t
{\displaystyle V=V^{t}}
como en este caso.
Sea
B
=
(
0
0
1
0
0
1
)
{\displaystyle B={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}}
. Entonces, para hacer más sencillo el proceso, calculamos
B
B
t
=
(
1
1
1
1
)
{\displaystyle BB^{t}={\begin{pmatrix}1&1\\1&1\end{pmatrix}}}
que tiene un polinomio característico de grado 2. Los autovalores son
λ
1
=
2
{\displaystyle \lambda _{1}=2}
y
λ
2
=
0
{\displaystyle \lambda _{2}=0}
asociados a los autovectores de norma unitaria
u
1
=
1
2
(
1
,
1
)
{\displaystyle u_{1}={\frac {1}{\sqrt {2}}}(1,1)}
y
u
2
=
1
2
(
−
1
,
1
)
{\displaystyle u_{2}={\frac {1}{\sqrt {2}}}(-1,1)}
. Nuestro único valor singular no nulo es
σ
1
=
2
{\displaystyle \sigma _{1}={\sqrt {2}}}
.
Observaciones:
Es claro que
rg
(
B
)
=
1
{\displaystyle \operatorname {rg} (B)=1}
coincide con la cantidad de valores singulares no nulos de la matriz y además
Col
(
B
)
=
⟨
1
2
(
1
,
1
)
⟩
{\displaystyle \operatorname {Col} (B)=\left\langle {\frac {1}{\sqrt {2}}}(1,1)\right\rangle }
.
Sabemos que
B
t
B
∈
M
3
(
R
)
{\displaystyle B^{t}B\in {\mathcal {M}}_{3}(\mathbb {R} )}
tiene un polinomio característico de grado 3. Sus raíces son
λ
1
=
2
{\displaystyle \lambda _{1}=2}
,
λ
2
=
λ
3
=
0
{\displaystyle \lambda _{2}=\lambda _{3}=0}
. Veámoslo:
B
t
B
=
(
0
0
0
0
0
0
0
0
2
)
⟹
p
B
t
B
(
x
)
=
det
(
x
Id
3
−
B
t
B
)
=
x
2
(
x
−
2
)
{\displaystyle B^{t}B={\begin{pmatrix}0&0&0\\0&0&0\\0&0&2\end{pmatrix}}\Longrightarrow p_{B^{t}B}(x)=\det({x\operatorname {Id} _{3}}-B^{t}B)=x^{2}(x-2)}
.
Ahora, sabemos que
B
v
i
=
σ
i
u
i
⇔
B
t
B
v
i
=
σ
i
2
v
i
=
σ
i
B
t
u
i
{\displaystyle Bv_{i}=\sigma _{i}u_{i}\Leftrightarrow B^{t}Bv_{i}=\sigma _{i}^{2}v_{i}=\sigma _{i}B^{t}u_{i}}
, es decir
B
t
u
i
=
σ
i
v
i
⇔
v
i
=
1
σ
i
B
t
u
i
{\displaystyle B^{t}u_{i}=\sigma _{i}v_{i}\Leftrightarrow v_{i}={\frac {1}{\sigma _{i}}}B^{t}u_{i}}
. Entonces, resulta del único valor singular no nulo:
v
1
=
1
2
(
0
,
0
,
2
)
=
(
0
,
0
,
1
)
{\displaystyle v_{1}={\frac {1}{2}}(0,0,2)=(0,0,1)}
.
Ahora, completamos a una base ortonormal de
R
3
{\displaystyle \mathbb {R} ^{3}}
,
(
(
0
,
0
,
1
)
,
(
1
,
0
,
0
)
,
(
0
,
1
,
0
)
)
{\displaystyle ((0,0,1),(1,0,0),(0,1,0))}
. En este ejemplo, nuestras matrices ortogonales son:
U
=
1
2
(
1
−
1
1
1
)
{\displaystyle U={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}}
y
V
=
(
0
1
0
0
0
1
1
0
0
)
{\displaystyle V={\begin{pmatrix}0&1&0\\0&0&1\\1&0&0\end{pmatrix}}}
.
Σ
=
(
2
0
0
0
0
0
)
{\displaystyle \Sigma ={\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}}
.
Y la DVS resulta entonces
B
=
1
2
(
1
−
1
1
1
)
(
2
0
0
0
0
0
)
(
0
0
1
1
0
0
0
1
0
)
=
(
1
1
)
(
0
0
1
)
=
(
0
0
1
0
0
1
)
{\displaystyle B={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}{\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}{\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}={\begin{pmatrix}1\\1\end{pmatrix}}{\begin{pmatrix}0&0&1\end{pmatrix}}={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}}
.
Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.