Saltar al contenido

¿Es una matriz multiplicada con su transpuesta algo especial?

Esta inquietud se puede tratar de variadas formas, sin embargo te damos la resolución más completa para nosotros.

Solución:

Lo principal es presumiblemente que $AA^T$ es simétrico Por cierto $(AA^T)^T=(A^T)^TA^T=AA^T$. Para matrices simétricas se tiene el Teorema Espectral que dice que tenemos una base de vectores propios y cada valor propio es real.

Además si $A$ es invertible, entonces $AA^T$ también es definida positiva, ya que $$x^TAA^Tx=(A^Tx)^T(A^Tx)> 0$$

Entonces tenemos: Una matriz es definida positiva si y solo si es la matriz de Gram de un conjunto lineal de vectores independientes.

Por último, pero no menos importante, si uno está interesado en cuánto el mapa lineal representado por $A$ cambia la norma de un vector que se puede calcular

$$sqrtizquierda=raíz cuadradaizquierda$$

que simplifica para vectores propios $x$ al valor propio $lambda$ a

$$sqrtizquierda=raíz cuadrada lambdaraíz cuadradaizquierda,$$

El determinante es simplemente el producto de estos valores propios.

$AA^T$ es semidefinido positivo, y en un caso en el que $A$ es una matriz de columna, será una matriz de rango 1 y tendrá solo un valor propio distinto de cero que es igual a $A^TA$ y su el vector propio correspondiente es $A$. El resto de los vectores propios son los null espacio de $A$, es decir, $lambda^TA = 0$.

De hecho, independientemente del tamaño de $A$, existe una relación útil entre los vectores propios de $AA^T$ y los vectores propios de $A^TA$; basado en la propiedad de que $rango(AA^T)=rango(A^TA)$. Que el rango sea idéntico implica que el número de vectores propios distintos de cero es idéntico. Además, podemos inferir los vectores propios de $A^TA$ a partir de $AA^T$ y viceversa. La descomposición del vector propio de $AA^T$ viene dada por $AA^Tv_i = lambda_i v_i$. En caso de que $A$ no sea una matriz cuadrada y $AA^T$ sea demasiado grande para calcular los vectores propios de manera eficiente (como ocurre con frecuencia en el cálculo de matrices de covarianza), entonces es más fácil calcular los vectores propios de $A^TA$ dados por $A^TAu_i = lambda_i u_i$. Premultiplicar ambos lados de esta ecuación con rendimientos $A$

$AA^TAu_i=lambda_iAu_i$.

Ahora, los vectores propios buscados originalmente $v_i$ de $AA^T$ se pueden obtener fácilmente mediante $v_i:=Au_i$. Tenga en cuenta que los vectores propios resultantes aún no están normalizados.

Uno podría nombrar algunas propiedades, como si $B=AA^T$ entonces

$$B^T=(AA^T)^T=(A^T)^TA^T=AA^T=B,$$

asi que

$$langle v,Bwrangle=langle Bv,wrangle=langle A^Tv,A^Twrangle.$$

Reseñas y valoraciones de la guía

Al final de todo puedes encontrar las reseñas de otros usuarios, tú igualmente tienes la habilidad insertar el tuyo si te apetece.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)


Tags : /

Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *