Saltar al contenido

¿Por qué las matrices simétricas reales son diagonalizables?

Nuestro equipo de especialistas luego de muchos días de investigación y de recopilar de información, dieron con la respuesta, esperamos que resulte de utilidad en tu trabajo.

Solución:

Suponga que el campo de tierra es $ mathbb C $. Es inmediato entonces que todas las matrices cuadradas se pueden triangular. Ahora, la simetría ciertamente implica normalidad ($ A $ es normal si $ AA ^ t = A ^ tA $ en el caso real, y $ AA ^ * = A ^ * A $ en el caso complejo). Dado que la normalidad se conserva mediante la similitud, se deduce que si $ A $ es simétrica, entonces la matriz triangular $ A $ es similar a la normal. Pero obviamente (¡calcula!) La única matriz triangular normal es diagonal, por lo que, de hecho, $ A $ es diagonalizable.

Entonces, resulta que el criterio que mencionaste para la diagonalizabilidad no es el más útil en este caso. El que es útil aquí es: Una matriz es diagonalizable si es similar a una matriz diagonal.

Por supuesto, el resultado muestra que toda matriz normal es diagonalizable. Por supuesto, las matrices simétricas son mucho más especiales que simplemente ser normales y, de hecho, el argumento anterior no prueba el resultado más fuerte de que las matrices simétricas son diagonalizables ortogonalmente.

Comentario: Para triangular la matriz, use la inducción del orden de la matriz. Por $ 1 veces 1 $ es trivial. Para $ n veces n $, primero encuentre cualquier vector propio arbitrario $ v_1 $ (debe existir uno). Pensando en la matriz como una transformación lineal en un espacio vectorial $ V $ de dimensión $ n $, escriba $ V $ como $ V = V_1 oplus W $, donde $ V_1 $ es el subespacio generado por $ v_1 $. Entonces $ W $ es $ n-1 $ -dimensional, aplique la hipótesis de inducción a $ A | _ W $ para obtener una base $ v_2, ldots, v_n $ en la que $ A | _W $ es triangular. Ahora se deduce que en la base $ v_1, ldots, v_n $ $ A $ es triangular.

Aquí hay algo de intuición (pero no una prueba rigurosa).

Si $ A $ es hermitiano (con entradas en $ mathbb C $), puede mostrar fácilmente que los autovalores de $ A $ son reales y que los autovectores correspondientes a distintos autovalores son ortogonales.

Normalmente, todos los valores propios de $ A $ son distintos. (En cierto sentido, es una gran coincidencia si dos valores propios resultan ser iguales). Entonces, típicamente $ A $ tiene una base ortonormal de vectores propios.

Incluso si $ A $ tiene algunos valores propios repetidos, perturbar ligeramente $ A $ probablemente hará que los valores propios se vuelvan distintos, en cuyo caso hay una base ortonormal de los vectores propios. Al pensar en $ A $ como un límite de pequeñas perturbaciones de $ A $, cada una de las cuales tiene una base ON de vectores propios, parece plausible que $ A $ también tenga una base ON de vectores propios.

Esta pregunta trata sobre el teorema espectral para espacios euclidianos reales (de dimensión finita), que dice que en dicho espacio cualquier operador autoadjunto es diagonalizable (sobre los números reales) con espacios propios mutuamente ortogonales (de modo que existen bases ortonormales de vectores propios). Este es, por supuesto, un resultado clásico que debe probarse en cualquier curso sobre el tema, por lo que puede buscarlo en cualquier libro de texto. Sin embargo, hay bastantes preguntas en este sitio que tocan más o menos este asunto, pero no hay respuestas realmente satisfactorias, por lo que pensé que este es un lugar tan bueno como cualquier otro para declarar lo que me parece una buena prueba (la única Enseño en mi curso).

Antes de comenzar, me gustaría señalar que este es un resultado sutil, como lo demuestra el hecho de que se convierte en false si uno reemplaza los números reales por los números racionales o por los números complejos (el último caso se puede salvar agregando alguna conjugación compleja, pero quiero evitar la sugerencia de que la validez del resultado establecido depende de eso de alguna manera). No obstante, hay una serie de consideraciones relevantes que son independientes del campo base, cosas fáciles que expondré como preliminares antes de llegar al meollo del tema.

En primer lugar, la formulación de la matriz en la pregunta es solo una reformulación, en términos de la matriz del operador con respecto a cualquier base ortonormal, del resultado que mencioné: bajo tal expresión, el operador adjunto obtiene la matriz de transposición, por lo que un auto- El operador adjunto se representa mediante una matriz simétrica. Dado que la base utilizada para tal expresión no tiene relación particular con nuestro operador o el problema en cuestión (tratando de encontrar una base de autovectores) será más fácil ignorar la matriz y razonar directamente en términos del operador. La traducción por expresión en términos de matrices es fácil y dejaré esto a un lado; como referencia, la afirmación que estoy probando se traduce en la afirmación de que para cada matriz simétrica real$ ~ A $, hay una matriz ortogonal $ P $ (cuyas columnas describen una base ortonormal de vectores propios) tal que $ P ^ – 1 AP = P ^ tAP $ es una matriz diagonal. Vale la pena señalar que lo contrario es true y obvio: si $ D $ es diagonal y $ P $ ortogonal, entonces $ A = PDP ^ t $ es simétrico (ya que $ D ^ t = D $).

Un hecho básico sobre los adjuntos es que para cualquier operador $ phi $ en un espacio vectorial euclidiano$ ~ V $, siempre que un subespacio $ W $ es estable bajo$ ~ phi $, su complemento ortogonal $ W ^ perp $ es estable bajo su adjunto$ ~ phi ^ * $. Por si $ v in W ^ perp $ y $ w en W $, luego $ langle w mid phi ^ * (v) rangle = langle phi (w) mid v rangle = 0 $ ya que $ phi (w) en W $ y $ v in W ^ perp $, así que eso $ phi ^ * (v) en W ^ perp $. Entonces por un autoadjunto operador $ phi $ (así que con $ phi ^ * = phi $), el complemento ortogonal de cualquier $ phi $-el subespacio estable es de nuevo $ phi $-estable.

Ahora nuestro enfoque estará en probar el siguiente hecho.

Lema.Cualquier operador autoadjunto $ phi $ en un espacio vectorial euclidiano real$ ~ V $ de dimensión finita distinta de cero tiene un vector propio.

Suponiendo esto por el momento, uno prueba fácilmente nuestro resultado por inducción en la dimensión. En dimensión$ ~ 0 $ el operador único es diagonalizable, por lo que el caso base es trivial. Ahora asumiendo $ dim V> 0 $, obtén un vector propio $ v_1 $ aplicando el lema. El subespacio $ W = langle v_1 rangle $ se extiende es $ phi $-estable por la definición de un vector propio, por lo que $ W ^ perp $ es $ phi $-estable también. Entonces podemos restringir $ phi $ a un operador lineal en $ W ^ perp $, que es claramente autoadjunto, por lo que nuestra hipótesis de inducción nos da una base ortonormal de $ W ^ perp $ que consta de vectores propios para esa restricción; llámalos $ (v_2, ldots, v_n) $. Vistos como elementos de $ V $, los vectores $ v_2, ldots, v_n $ son vectores propios de$ ~ phi $, y claramente la familia $ (v_1, ldots, v_n) $ es ortonormal. Es una base ortonormal de autovectores de$ ~ phi $y hemos terminado.

Así que eso fue lo fácil, lo más difícil es probar el lema. Como se dijo, debemos usar que el campo base son los números reales. Doy dos demostraciones, una en estilo puramente algebraico, pero que se basa en el teorema fundamental del álgebra y, por lo tanto, usa los números complejos, aunque de manera indirecta, mientras que la otra usa un poco de topología y cálculo diferencial pero evita los números complejos.

Mi primera prueba del lema se basa en el hecho de que los polinomios irreducibles en $ def R Bbb R R[X]PS todos tienen un título como máximo $ 2 $. Esto proviene de descomponer el polinomio$ ~ P $ en un coeficiente principal y factores lineales mónicos sobre los números complejos (como se puede hacer con el teorema fundamental del álgebra); cualquier factor mónico que no esté ya en $ R[X]PS debe ser $ Xz $ con $ z $ un número complejo no real, pero luego $ X- overline z $ es relativamente primo para él y también un divisor de$ ~ P $, como es su producto $ (Xz) (Z- overline z) = X ^ 2-2 Re z + | z | ^ 2 $, que se encuentra en $ R[X]PS.

Teniendo esto en cuenta, primero establecemos (sin utilizar la autoadincidencia) en el contexto del lema la existencia de un $ phi $-subespacio estable de dimensión distinta de cero como máximo$ ~ 2 $. Empiece a tomar cualquier polinomio mónico $ P in R[X]PS aniquiladora$ ~ phi $; el polinomio mínimo o característico servirá, pero realmente solo necesitamos la existencia de dicho polinomio, lo cual es fácil. Factor $ P $ en irreducibles en $ R[X]PS, decir $ P = P_1P_2 ldots P_k $. Ya que $ 0 = P[phi]= P_1[phi] circ cdots circ P_k[phi]PS, al menos uno de los $ P_i[phi]PS tiene un núcleo distinto de cero (de hecho, la suma de las dimensiones de sus núcleos es al menos $ dim V> 0 $); elige tal$ ~ i $. Si $ deg P_i = 1 $ entonces el kernel es un espacio propio distinto de cero, y cualquier vector propio en él abarca un $ phi $-subespacio estable de dimensión$ ~ 1 $ (y, por supuesto, también obtenemos directamente la conclusión del lema aquí). Entonces nos quedamos con el caso $ deg P_i = 2 $, en cuyo caso para cualquier vector distinto de cero $ v $ de su núcleo, $ v $ y $ phi (v) $ abarcar un $ phi $-subespacio estable de dimensión$ ~ 2 $ (el caso es que $ phi ^ 2 (v) $ yace en el subespacio porque $ P_i[phi](v) = 0 $).

Ahora que tenemos un $ phi $-subespacio estable$ ~ W $ de dimensión distinta de cero como máximo$ ~ 2 $, podemos restringir $ phi $ para $ W $ y busque un vector propio allí, que será suficiente. Pero esto significa que basta con probar el lema con la hipótesis adicional $ dim V leq2 $. Desde el caso $ dim V = 1 $ es trivial, eso se puede hacer mostrando que el polinomio característico de cualquier simétrico real $ 2 times2 $ La matriz tiene una raíz real. Pero eso se puede demostrar mostrando que su discriminante no es negativo, lo que se deja como un ejercicio fácil (es una suma de cuadrados).

(Tenga en cuenta que el argumento final muestra que para $ phi $ autoadjunto, el caso $ deg P_i = 2 $ en realidad nunca ocurre.)


Aquí hay una segunda prueba de lema, menos en el estilo algebraico que usé hasta ahora, y menos autónomo, pero que encuentro más intuitivo. También sugiere un método práctico para encontrar un vector propio en el contexto del lema. Considere la función real$ ~ f: V a R $ definido por $ f: x mapsto langle x mid phi (x) rangle $. Es una función cuadrática, por lo tanto, en particular, diferenciable y continua. Por su gradiente en $ p en V $ uno calcula para $ v en V $ y $ h in R $:
$$ f (p + hv) = langle p + hv mid phi (p + hv) rangle = phi (p) + h bigl ( langle p mid phi (v) rangle + langle v mid phi (p) rangle bigr) + h ^ 2 phi (v) \ = phi (p) + 2h langle v mid phi (p) rangle + h ^ 2 phi (v) $$
(la última igualdad por autoadincidencia), de modo que el gradiente es $ 2 phi (p) $. Ahora bien, el punto que no probaré es que la restricción de $ f $ a la esfera unitaria $ S = , v in V mid langle v mid v rangle = 1 , $ alcanza su máximo en algún lugar de esa esfera. Hay muchas formas en el análisis de demostrar que esto es true, donde los puntos esenciales son que $ f $ es continuo y que $ S $ es compacto. Ahora si $ p en S $ es tal máximo, entonces cada vector tangente a$ ~ S $ a$ ~ p $ debe ser ortogonal al gradiente $ 2 phi (p) $ de $ f $ a$ ~ p $ (o de lo contrario se podría incrementar el valor de $ f (x) $ cerca $ p $ variando $ x $ a lo largo de $ S $ en la dirección de ese vector tangente). El espacio tangente de$ ~ S $ a $ p $ es $ p ^ perp $, entonces esta declaración significa que $ phi (p) in (p ^ perp) ^ perp $. Pero sabemos que $ (p ^ perp) ^ perp = langle p rangle $, y $ phi (p) in langle p rangle $ (con $ p neq 0 $) significa precisamente que $ p $ es un vector propio de$ ~ phi $. (Se puede comprobar que es uno para el valor propio máximo de$ ~ phi $.)

valoraciones y comentarios

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *