Saltar al contenido

¿Qué tipo de matrices no son diagonalizables?

Nuestros mejores investigadores han agotado sus provisiones de café, en su búsqueda día y noche por la resolución, hasta que Fernanda encontró la contestación en Gogs así que en este momento la comparte con nosotros.

Solución:

Creo que una noción muy útil aquí es la idea de “vector propio generalizado“.

Un vector propio de una matriz $ A $ es un vector $ v $ con valor asociado $ lambda $ tal que $$ (A- lambda I) v = 0 $$ A vector propio generalizado, por otro lado, es un vector $ w $ con el mismo valor asociado tal que $$ (A- lambda I) ^ kw = 0 $$ Es decir, $ (A- lambda I) $ es nilpotente en $ w $. O, en otras palabras: $$ (A – lambda I) ^ k-1 w = v $$ Para algún vector propio $ v $ con el mismo valor asociado.


Ahora, veamos cómo esta definición nos ayuda con una matriz no diagonalizable como $$ A = pmatrix 2 & 1 \ 0 & 2 $$ Para esta matriz, tenemos $ lambda = 2 $ como un único valor propio, y $ v = pmatrix 1 \ 0 $ como el vector propio asociado, que le dejaré verificar. $ w = pmatrix 0 \ 1 $ es nuestro eiegenvector generalizado. Observe que $$ (A – 2I) = pmatrix 0 & 1 \ 0 & 0 $$ Es una matriz nilpotente de orden $ 2 $. Tenga en cuenta que $ (A – 2I) v = 0 $, y $ (A- 2I) w = v $ de modo que $ (A-2I) ^ 2w = 0 $. Pero, ¿qué significa esto para lo que hace la matriz $ A $? El comportamiento de $ v $ es bastante obvio, pero con $ w $ tenemos $$ Aw = pmatrix 1 \ 2 = 2w + v $$ Entonces $ w $ se comporta como un vector propio, pero no realmente. En general, un vector propio generalizado, cuando $ A $ actúa sobre él, da otro vector en el espacio propio generalizado.


Una noción relacionada importante es la forma normal de Jordan. Es decir, si bien no siempre podemos diagonalizar una matriz encontrando una base de vectores propios, siempre podemos poner la matriz en forma normal de Jordan encontrando una base de vectores propios / espacios propios generalizados.

Espero que eso ayude. Yo diría que lo más importante que hay que comprender de la idea de vectores propios generalizados es que cada transformación puede estar relacionada con la acción de un nilpotente sobre algún subespacio.

Editar: El álgebra de la que hablo aquí es no en realidad los números de Grassmann en absoluto, son $ mathbb R[X]/ (X ^ n) $, cuyos generadores no satisfacen la relación de anticomutatividad aunque satisfagan todas las relaciones de nula potencia. El asunto de los números duales para 2 por 2 sigue siendo correcto, simplemente ignore mi uso de la palabra “Grassmann”.


Las matrices de 2 por 2 no diagonalizables se pueden diagonalizar sobre los números duales, y los “casos extraños” como la transformación de Galileo no son fundamentalmente diferentes de las matrices nilpotentes.

La intuición aquí es que la transformación de Galileo es una especie de “caso límite” entre la diagonalizabilidad real (sesgos) y la diagonalización compleja (rotaciones) (que se puede pensar en términos de discriminantes). En el caso de la transformación galileana $ left[beginarray*20c1&v\0&1endarrayright]PS, es una pequeña perturbación lejos de ser diagonalizable, es decir, tiene “vectores propios repetidos” (puede visualizar esto con MatVis). Así que uno puede imaginar que los dos vectores propios están a solo un “épsilon” de distancia, donde $ varepsilon $ es la unidad dual satisfactoria $ varepsilon ^ 2 = 0 $ (llamado el “alma”). De hecho, su polinomio característico es:

$$ ( lambda-1) ^ 2 = 0 $$

Cuyas soluciones entre los números duales son $ lambda = 1 + k varepsilon $ de verdad $ k $. Entonces, uno puede “diagonalizar” la transformación de Galileo sobre los números duales como, por ejemplo:

$$ left[beginarray*20c1&0\0&1+vvarepsilonendarrayright]$$

Por supuesto, esto no es único, se forma a partir de la matriz de cambio de base. $ left[beginarray*20c1&1\0&epsilonendarrayright]PS, pero cualquier vector de la forma $ (1, k varepsilon) $ es un vector propio válido. Si lo desea, podría considerar esto como un valor canónico o “principal” de la diagonalización y, en general, cada diagonalización corresponde a un límite que puede tomar de transformaciones diagonales reales / complejas. Otra forma de pensar sobre esto es que hay un espacio propio completo abarcado por $ (1,0) $ y $ (1, varepsilon) $ en ese pequeño hueco de multiplicidad. En este sentido, la multiplicidad geométrica está obligada a ser igual a la multiplicidad algebraica *.

Entonces una matriz nilpotente con polinomio característico $ lambda ^ 2 = 0 $ tiene soluciones $ lambda = k varepsilon $, y simplemente se diagonaliza como:

$$ left[beginarray*20c0&0\0&varepsilonendarrayright]$$

(Piense en esto). De hecho, la matriz resultante tiene un polinomio mínimo $ lambda ^ 2 = 0 $, y los vectores propios son como antes.


¿Qué pasa con las matrices de dimensiones superiores? Considerar:

$$ left[ beginarray*20c0&v&0\0&0&w\0&0&0endarray right]$$

Esta es una matriz nilpotente $ A $ satisfactorio $ A ^ 3 = 0 $ (pero no $ A ^ 2 = 0 $). El polinomio característico es $ lambda ^ 3 = 0 $. A pesar de que $ varepsilon $ puede parecer una elección sensata, realmente no funciona, si prueba una diagonalización de la forma $ mathrm diag (0, v varepsilon, w varepsilon) $, tiene polinomio mínimo $ A ^ 2 = 0 $, Cuál está mal. De hecho, no podrá encontrar tres vectores propios linealmente independientes para diagonalizar la matriz de esta manera; todos tomarán la forma $ (a + b varepsilon, 0,0) $.

En cambio, debe considerar una generalización de los números duales, llamados números de Grassmann, con el alma satisfaciendo $ epsilon ^ n = 0 $. Entonces la diagonalización toma, por ejemplo, la forma:

$$ left[ beginarray*20c0&0&0\0&vepsilon&0\0&0&wepsilonendarray right]$$


* Sobre los reales y complejos, cuando se define la multiplicidad algebraica (como “la multiplicidad del factor correspondiente en el polinomio característico”), hay un solo valor propio correspondiente a ese factor. Esto, por supuesto, ya no es true sobre los números de Grassmann, porque no son un campo, y $ ab = 0 $ ya no implica “$ a = 0 $ o $ b = 0 $“.

En general, si desea probar cosas sobre estos números, la forma de formalizarlos es construyéndolos como el cociente $ mathbb R[X]/ (X ^ n) $, para que tenga algo claro con lo que trabajar.

(Quizás relevante: ¿números de Grassmann como valores propios de operadores nilpotentes? – discutiendo el hecho de que los números de Grassmann no son un campo).

Quizás se pregunte si este tipo de enfoque puede ser aplicable a las ecuaciones diferenciales LTI con raíces repetidas; después de todo, sus matrices características son exactamente de esta forma de Grassmann. Sin embargo, como se señaló en los comentarios, esta diagonalización todavía no se realiza a través de una matriz de cambio de base invertible, sigue siendo solo de la forma $ PD = AP $, no $ D = P ^ – 1 AP $. No veo ninguna forma de evitar esto. Ver mis publicaciones Todas las matrices se pueden diagonalizar (una nueva publicación de esta respuesta) y Raíces repetidas de ecuaciones diferenciales para ideas, supongo.

Al final de todo puedes encontrar las referencias de otros programadores, tú además tienes el poder insertar el tuyo si lo crees conveniente.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *