Saltar al contenido

¿Cómo calcular la matriz exponencial explícitamente para una matriz que no es diagonalizable?

Solución:

Supongo que es el momento adecuado para algo elaborado.

La razón por la que uno querría intentar diagonalizar una matriz antes de aplicar la exponencial (o cualquier función, en realidad) es que es fácil calcular la exponencial de una matriz diagonal: simplemente se toma la exponencial de las entradas diagonales. Para matrices que se pueden diagonalizar (por ejemplo, matrices normales) $ mathbf A = mathbf V mathbf Lambda mathbf V ^ – 1 $, la exponencial entonces viene dada por $ exp ( mathbf A) = mathbf V exp ( mathbf Lambda) mathbf V ^ – 1 $

Ahora, el problema es cuando su matriz es defectuosa (es decir, no diagonalizable, no posee un conjunto completo de autovectores). Todavía queremos poder realizar una transformación de similitud de tal manera que uno pueda (relativamente) aplicar fácilmente la función exponencial a la matriz resultante.

La descomposición de Jordan es una descomposición conveniente: uno descompone una matriz como $ mathbf A = mathbf S mathbf J mathbf S ^ – 1 $, donde $ mathbf J $ es una matriz triangular. Si $ mathbf A $ fuera diagonalizable para empezar, $ mathbf J $ es diagonal, y volvemos a tener una descomposición propia. Para $ mathbf A $ defectuoso, se puede tratar $ mathbf J $ como una matriz diagonal de bloques cuyos bloques diagonales son escalares o los llamados Bloques de Jordan, matrices de la forma

$$ begin pmatrix lambda & 1 && \ & lambda & ddots & \ && ddots & 1 \ &&& lambda end pmatrix $$

(los elementos no indicados son cero), que $ mathbf J $ tendrá para cada grupo de valores propios repetidos que $ mathbf A $ tenga. Calcular $ exp ( mathbf A) $ luego procede formalmente de la misma manera que en el caso diagonalizable: $ exp ( mathbf A) = mathbf S exp ( mathbf J) mathbf S ^ – 1 PS

Entonces, ¿cómo se calcularía $ exp ( mathbf J) $? Los bloques escalares son fáciles de cuidar, por lo que lo que queda es una fórmula para la computación.

$$ f begin pmatrix lambda & 1 && \ & lambda & ddots & \ && ddots & 1 \ &&& lambda end pmatrix $$

La fórmula que necesitamos es la siguiente (si el bloque de Jordan es una matriz de $ k times k $):

$$ f begin pmatrix lambda & 1 && \ & lambda & ddots & \ && ddots & 1 \ &&& lambda end pmatrix = begin pmatrix f ( lambda) & f ^ prime ( lambda ) & cdots & frac f ^ (k-1) ( lambda) (k-1)! \ & f ( lambda) & ddots & vdots \ && ddots & f ^ prime ( lambda) \ &&& f ( lambda) end pmatrix $$

Para el exponencial, esto se convierte en

$$ begin pmatrix exp ( lambda) & exp ( lambda) & cdots & frac exp ( lambda) (k-1)! \ & exp ( lambda) & ddots & vdots \ && ddots & exp ( lambda) \ &&& exp ( lambda) end pmatrix $$

Aquí se da una prueba de esta fórmula.

En el ámbito de la aritmética inexacta, la descomposición de Jordan se vuelve poco confiable debido a varias razones elaboradas; Para calcular de manera confiable el exponencial de una matriz, hay un montón de otras alternativas, como escalar + cuadrado y el uso de la descomposición de Schur, una transformación de similitud a una matriz triangular que es más segura de calcular en aritmética inexacta. Moler y Van Loan abordan este tema en este artículo y su seguimiento.

Para cualquier elemento $ a $ de cualquier dimensión finita $ mathbb C $ -álgebra con 1, sea $ f_a in mathbb C[X]$ sea el polinomio único de grado $ < dim mathbb C[a]$ satisfaciendo $ f_a (a) = e ^ a $. (La letra $ X $ es indeterminada).

Sea $ m in mathbb C[X]$ sea el polinomio mínimo de $ a $, sea $ lambda $ una multiplicidad $ mu ( lambda) $ raíz de $ m $, y sea $ x ( lambda) $ la imagen de $ X $ en $ mathbb C[X]/ (X- lambda) ^ mu ( lambda) $.

Entonces $ f_a $ se puede calcular resolviendo, gracias a la fórmula de Taylor, las congruencias $$ f_a equiv f_ x ( lambda) quad bmod quad (X- lambda) ^ mu ( lambda) , $$ donde $ lambda $ corre sobre las raíces de $ m $.

EDICIÓN DEL 22 DE ABRIL DE 2011. Aquí hay algunos detalles más: $$ f_ x ( lambda) = e ^ lambda sum_ n < mu ( lambda) frac (X- lambda) ^ n n! quad, $$ $$ f_a = sum_ lambda T_ lambda left (f_ x ( lambda) frac (X- lambda) ^ mu ( lambda) m right) frac m (X- lambda) ^ mu ( lambda) quad, $$ donde $ T_ lambda $ significa "grado $ < mu ( lambda) $ Polinomio de Taylor en $ X = lambda $ ".

EDICIÓN DEL 23 DE ABRIL DE 2011. Permítanme intentar describir cuál es (en mi humilde opinión) la relación entre los distintos enfoques.

Nuevamente, sea $ a $ un elemento de un $ mathbb C $ -álgebra de dimensión finita con 1 (por ejemplo, $ a $ es una matriz compleja de $ n $ por $ n $), y $ m $ su polinomio mínimo. Pon $ d: = deg m = dim mathbb C[a]PS Entonces hay un polinomio único $ f_a $ de grado $

Así es como se suelen expresar las cosas. Hay un título único $[X]$ tal que $ g (a) $ es semisimple y $ ag (a) $ es nulo. La igualdad $$ a = g (a) + (ag (a)) $$ se llama Descomposición de Jordan de $ a $. [To get the Jordan normal form of a matrix, you must in addition find, in each generalized eigenspace, a basis which is compatible, in a certain sense, with the nilpotent part.] Por supuesto, $ e ^ a $ se puede expresar fácilmente en términos de la descomposición de Jordan. Pero el punto es este: ¿Cómo se calcula $ g $? La respuesta es: resolviendo las congruencias $$ g equiv lambda quad bmod quad (X- lambda) ^ mu ( lambda), $$ donde $ lambda $ corre sobre las raíces de $ m $. Por lo tanto, vemos que calcular la descomposición de Jordan es exactamente tan difícil como calcular la exponencial.

Como comentario al margen, déjame recordar Fórmula de Lagrange para el exponencial de una matriz diagonalizable $ a $ con valores propios $ ( lambda_j) $: $$ e ^ a = sum_j e ^ lambda_j prod_ k not = j frac a- lambda_k lambda_j- lambda_k quad. $$

Diré que hay al menos tres formas de calcular $ e ^ a $ para una matriz compleja $ n $ por $ n $ $ a $.

(1) Calcule la exponencial directamente, como se explicó anteriormente.

(2) Calcule primero la descomposición de Jordan y luego la exponencial (usando la descomposición).

(3) Calcule primero la forma normal de Jordan y luego la exponencial (usando la forma normal).

Creo que (3) es una complicación innecesaria: en los dos casos extremos, es decir, cuando $ a $ es diagonalizable y cuando $ a $ es nilpotente, no hay diferencia entre (1) y (2). En el caso diagonalizable, (1) y (2) producen la fórmula de Lagrange. Pero, si desea usar (3), debe diagonalizar $ a $. ¿No es una pérdida de tiempo? En el caso nilpotente, (1) y (2) dan la respuesta obvia, pero para obtener la forma normal, debes resolver muchos sistemas lineales. ¿No es una pérdida de tiempo?

Como último comentario, permítanme explicar el punto de partida del argumento: hay un isomorfismo obvio $ mathbb C[X]/ (m) a mathbb C[a]$, mapeando la imagen $ x $ de $ X $ a $ a $. Por tanto, calcular $ e ^ a $ es lo mismo que calcular $ e ^ x $. Además, $ mathbb C[X]/ (m) $ esta álgebra es canónicamente isomorfa a un producto de álgebras polinómicas truncadas.

SEGUNDA EDICIÓN DEL 23 DE ABRIL DE 2011. El lector que tenga dudas puede probar los distintos métodos con ejemplos. El primer ejemplo que no es del todo trivial es la matriz complementaria de $ (Xa) ^ 2 (Xb) $, donde $ a $ y $ b $ son números complejos distintos.

EDICIÓN DEL 24 DE ABRIL DE 2011. De manera más general, dada una matriz compleja $ n $ por $ n $ $ a $, uno puede hacer las siguientes tres preguntas:

(a) ¿Cuál es el polinomio mínimo de $ a $?

(b) ¿Cuál es la clase de conjugación de $ a $?

(c) ¿Cómo poner $ a $ en la forma normal de Jordan?

Es instructivo considerar el caso del caso nilpotente (al que el caso general se reduce en algún sentido):

Para responder (a), debes encontrar el mínimo exponente $ mu $ que satisfaga $ a ^ mu = 0 $.

Para responder (b), debe, además, calcular el rango de $ a ^ j $ para $ 1 le j < mu $.

Para responder (c), debe, además, resolver un montón de sistemas lineales.

Solo se necesita (a) para calcular el exponencial.

Puede encontrar el exponencial de una matriz mediante el algoritmo de Putzer, que evita tanto calcular la forma canónica de Jordan como cualquier vector propio. El algoritmo de Putzer utiliza el teorema de Cayley-Hamilton, que establece que una matriz satisface su ecuación característica, de manera esencial.

A continuación se muestra un resumen del método para una matriz $ 3 times 3 $ $ a $. El caso general debería ser similar. La idea básica es que todas las potencias de $ a $ que comienzan con $ a ^ 3, a ^ 4, ldots $ pueden expresarse como una combinación lineal de $ i, a, a ^ 2. $ Usaremos diferentes combinaciones de $ i, a, a ^ 2 $ en su lugar, como se explica en el siguiente párrafo.

Deje que el polinomio característico de $ a $ se escriba como $ det ( lambda I – A) = ( lambda – lambda_1) ( lambda – lambda_1) ( lambda – lambda_3) $. No importa cómo se etiqueten las raíces o incluso si todas son reales. Ahora defina $ p_0 = i, p_1 = (a – lambda_1 i) p_0, p_2 = (a – lambda_2 i) p_1. $ Necesitaremos las siguientes consecuencias $ a p_0 = lambda_1 p_0 + p_1, a p_1 = lambda_2 p_1 + p_2, a p_2 = lambda_3 p_2. $

Ahora busque $ e ^ at = i + at + frac t ^ 2a ^ 2 2! + Ldots $. Dado que todas las potencias que comienzan con $ a ^ 3 $ son una combinación lineal de $ i, p_0, p_1 $, gracias a ch, $ e ^ at = r_0 p_0 + r_1 p_1 + r_2 p_2. $ Usando $ frac d dt e ^ at = ae ^ at $ es fácil ver que $ r_0, r_1, r_2 $ satisfacen $$ frac dr_0 dt = lambda_1 r_0, frac dr_1 dt = lambda_2 r_1 + r_0, frac dr_2 dt = lambda_3 r_2 + r_1 $$ junto con las condiciones iniciales $ r_0 (0) = 1, r_1 (0) = 0, r_2 (0) = 0. $

Una vez que tenemos $ r_0, r_1, r_2 $ la matriz fundamental $ e ^ at = r_0 p_0 + r_1 p_1 + r_2 p_2 $ y hemos terminado.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *