Saltar al contenido

Encontrar el rango de la matriz directamente a partir de valores propios

Esta crónica ha sido evaluado por nuestros expertos para garantizar la veracidad de nuestra esta crónica.

Solución:

El rango de una matriz se define como la dimensión del espacio de la columna. Sea $ r $ el rango de una matriz, $ A $, definida sobre un espacio vectorial de dimensión finita, $ V $.

El teorema de rango (a veces llamado el rango-nulidad teorema) relaciona el rango de una matriz con la dimensión de su espacio nulo (a veces llamado Kernel), por la relación: $ mathrm dim V = r + mathrm dim ~ Null A $

Pero, ¿cómo se relaciona esto con los valores propios y los vectores propios?

Recuerde una definición de un valor propio, $ lambda $ es un valor propio de una transformación lineal, $ T $, si y solo si existe un $ v en V $ distinto de cero tal que $ Tv = lambda v iff (T- lambda I) v = 0 $.

Recuerde la definición de un autovector, $ v $ es un autovector de la transformación lineal $ T $ con autovalor $ lambda $ si y solo si existe un autovalor $ lambda $ tal que $ Tv = lambda v iff (T – lambda I) v = 0 $

Por lo tanto, tiene sentido definir el espacio propio como el conjunto de todos los vectores propios (que resulta ser un subespacio), es decir, el conjunto de todos los vectores tales que $ (T- lambda I) v = 0 $, que es solo el null espacio de $ (T- lambda I) $. Entonces: $ mathrm E ( lambda, T) = mathrm Nulo (T- lambda I) $.

Esto le muestra la relación entre los espacios propios y null espacios. ¿Cómo se relaciona esto con el null espacio de $ T $? Bueno, toma $ lambda = 0 $. Entonces:

$$ E (0, T) = mathrm Nulo ~ T $$

Entonces el null el espacio de $ T $ es exactamente la dimensión del espacio propio correspondiente al valor propio $ 0 $. Por el teorema del rango, relacionamos esto con el rango de la matriz:

$$ mathrm rango (T) = mathrm dim V – mathrm dim ~ E (0, T) $$

Ahora, a menudo aparecen algunos conceptos erróneos comunes. Muchas personas pensarán inicialmente que la dimensión del espacio propio es igual a la multiplicidad (algebraica) del valor propio, pero esto no es cierto. true. Considerar:

$$ B = begin bmatrix 0 & 1 & 0 \ 0 & 0 & 1 \ 0 & 0 & 0 end bmatrix $$

Para esta matriz, el valor propio $ 0 $ tiene una multiplicidad algebraica de $ 3 $, pero la dimensión del espacio propio correspondiente a $ 0 $ (y por lo tanto el null espacio de esta matriz) es solo 1:

$ mathrm Nulo B = mathrm span left ( begin bmatrix 1 \ 0 \ 0 end bmatrix right) $.

Entonces, para calcular la dimensión del espacio propio correspondiente al valor propio $ 0 $, no puede simplemente contar el número de veces que $ 0 $ es un valor propio, debe encontrar una base para $ Null (A) $ y luego ver cuánto tiempo es la base, determinando la dimensión de la null espacio. A partir de ahí, puede obtener el rango del teorema del rango.

Pero tenemos un límite superior, la dimensión de cada espacio propio (multiplicidad geométrica) no puede ser mayor que la multiplicidad (algebraica) del valor propio en general. Vea aquí por qué.

En su ejemplo, $ 0 $ es un valor propio, lo que significa que existe un vector propio distinto de cero, $ v $, tal que $ Tv = 0 $, por lo que la dimensión del null el espacio es de al menos $ 1 $. No podemos tener la dimensión del null espacio mayor que $ 1 $, porque la multiplicidad geométrica es menor o igual que la multiplicidad algebraica, y se le dio que la multiplicidad algebraica de $ 0 $ es $ 1 $.

Esto significa que la dimensión del espacio propio correspondiente al valor propio $ 0 $ es al menos $ 1 $ y menor o igual a $ 1 $. Por tanto, la única posibilidad es que la dimensión del espacio propio correspondiente a $ 0 $ sea exactamente $ 1 $. Así, la dimensión de la null el espacio es $ 1 $, por lo tanto, según el teorema de rango, el rango es $ 2 $. No puede ser menor que 2, porque la dimensión del espacio propio correspondiente a $ 0 $ no puede ser mayor que la multiplicidad algebraica, lo que obliga a que el rango sea $ 2 $.

Continuando, la forma en que parece estar pensando sobre este problema no es la mejor, pero intentaré responder algunas de las preguntas que hizo con respecto a esto para responder completamente a su pregunta.

Primero, en vectores propios linealmente independientes:

Los vectores propios con valores propios distintos son siempre linealmente independientes. Te mostraré una prueba del siguiente teorema (cito el Álgebra lineal bien hecha de Axler para gran parte de esta prueba):

Sea $ lambda_1, …, lambda_m $ valores propios distintos de $ T $ donde $ v_1, …, v_m $ son vectores propios distintos de cero, luego $ v_1, …, v_m $ es linealmente independiente.

Procederemos por contradicción; Suponga que la lista es linealmente dependiente:

Sea $ k $ el entero más pequeño tal que $ v_1, … v_ k-1 $ sea linealmente independiente. Luego, agregar $ v_k $ hace que la lista sea linealmente dependiente, por lo que podemos escribir:

$ v_k = a_1v_1 + … + a_ k-1 v_ k-1 $ para algunos $ a_1, …, a_ k-1 $, o

$ lambda_kv_k = lambda_k (a_1v_1 + … + a_ k-1 v_ k-1) ~~~~~~~~~~~~~~~~~~~~ $

(multiplicando ambos lados por $ lambda_k $)

Aplique $ T $ a ambos lados de la primera ecuación (recuerde que cada $ v_k $ es un vector propio):

$$ lambda_k v_k = lambda_1a_1v_1 + … + lambda_ k-1 v_ k-1 $$ Restando esta ecuación de

produce:

$$ 0 = a_1 ( lambda_k- lambda_1) v_1 + … + a_ k-1 ( lambda_k- lambda_ k-1) v_ k-1 $$ null Dado que $ v_1, …, v_ k-1 $ son linealmente independientes por supuesto, debemos tener que todos $ a_i $ son cero (ya que ningún $ lambda_k- lambda_i $ es cero porque asumimos que los valores propios son distintos ). Entonces eso significa $ v_k = 0 $, pero asumimos que $ v_k $ era distinto de cero. Esta es la contradicción que necesitamos, por lo que debemos tener que $ v_1, …, v_m $ es linealmente independiente.

Entonces, los vectores propios con valores propios distintos son linealmente independientes. Los vectores propios con el mismo valor propio pueden ser linealmente dependientes (Sea $ v $ un vector propio, entonces $ av $ también es un vector propio ($ a in mathbb F $) porque $ T (av) = aT (v) = a lambda v $). Pero como dije anteriormente, al calcular la dimensión de la [sic] espacio, puede determinar la dimensión del espacio propio y, por lo tanto, el número de vectores propios linealmente independientes correspondientes al mismo valor propio que puede tener.

No estoy muy seguro de a qué te refieres con “¿No

¿los valores propios distintos siempre forman el mismo vector propio? “, pero creo que esta prueba de independencia lineal de los vectores propios con valores propios distintos responderá a cualquier inquietud que tenga.

En cuanto a por qué su enfoque no funcionó, no puede usar que hay dos vectores propios linealmente independientes correspondientes al valor propio $ 2 $ y, por lo tanto, la dimensión del espacio de la columna es $ 2 $, porque no sabe que la dimensión del espacio propio es 2. Necesitaría calcular $ mathrm Null (A-2I) $. Podemos tener una transformación donde el valor propio 2 tiene multiplicidad 2, pero la dimensión del espacio propio no es 2. A saber:

$$ begin bmatrix 0 & 0 & 0 \ 0 & 2 & 1 \ 0 & 0 & 2 end bmatrix $$

El rango es igual a la dimensión del espacio menos la dimensión del kernel.

La dimensión del núcleo es igual a la dimensión del espacio propio para el valor propio $ 0 $.

Puedes apoyar nuestra faena poniendo un comentario o dejando una valoración te damos las gracias.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *