Saltar al contenido

Comprender el producto interno ponderado y las normas ponderadas

Solución:

Las normas ponderadas tienen una variedad de usos. Suponga que está midiendo el tamaño de los vectores que salen de algún proceso físico o aleatorio, y se ven así: $$ begin {bmatrix} +5.4 times 10 ^ {- 10} \ -1.3 times 10 ^ {+ 6} \ end {bmatrix} begin {bmatrix} +1.8 times 10 ^ {- 9} \ -4.3 times 10 ^ {+ 5} \ end {bmatrix} begin {bmatrix } -2.3 times 10 ^ {- 9} \ +3.4 times 10 ^ {+ 5} \ end {bmatrix} begin {bmatrix} +8.6 times 10 ^ {- 10} \ +3.6 veces 10 ^ {+ 6} \ end {bmatrix} begin {bmatrix} -3.2 times 10 ^ {- 10} \ +2.7 times 10 ^ {+ 6} \ end {bmatrix} $$ ¿Tendría sentido usar la norma euclidiana estándar $ | cdot | _2 $ para medir el tamaño de estos vectores? Yo digo que no. Los valores de $ x_1 $ rondan los $ 10 ^ {- 9} $, $ x_2 $ alrededor de $ 10 ^ 6 $. Dado que $ x_1 $ es mucho más pequeño que $ x_2 $, $ | x | _2 approx | x_2 | $. Estás perdiendo información sobre $ x_1 $ con esta medida.

Lo que puede optar por hacer en esta circunstancia es seleccionar un ponderado diagonalmente norm $ | x | _D triangleq sqrt {x ^ * Dx} $, con los valores de $ D_ {ii}> 0 $ elegidos para “normalizar” cada entrada. Por ejemplo, podría elegir $ D_ {11} = 10 ^ {18} $ y $ D_ {22} = 10 ^ {- 12} $. Los valores de $ D ^ {1/2} x $ son $$ begin {bmatrix} +0.54 \ -1.3 end {bmatrix} begin {bmatrix} +1.8 \ -0.43 end {bmatrix} begin {bmatrix} -2.3 \ +0.34 end {bmatrix} begin {bmatrix} +0.86 \ +3.6 end {bmatrix} begin {bmatrix} -0.32 \ +2.7 end {bmatrix} $$ Ahora pequeño los cambios relativos en $ x_1 $ tendrán aproximadamente el mismo impacto en la norma $ | x | _D = sqrt {x ^ * Dx} = | D ^ {1/2} x | _2 $ como pequeños cambios relativos en $ x_2 $. Esta es probablemente una norma más informativa para este conjunto de vectores que una norma euclidiana estándar.

Las normas ponderadas diagonalmente son probablemente las más fáciles de justificar intuitivamente, pero de hecho las normas ponderadas más generales tienen sus usos. Por ejemplo, aparecen a menudo en pruebas sobre el método de Newton.

Para obtener información sobre las raíces cuadradas de la matriz, Wikipedia no es un mal lugar para comenzar, o cualquier texto de álgebra lineal razonablemente bueno. Existen raíces cuadradas para cualquier matriz semidefinita positiva hermitiana, es decir, cualquier matriz hermitiana con valores propios reales no negativos.

Por lo general, se consideran dos tipos de raíces cuadradas para una matriz PSD hermitiana simétrica / compleja real $ M $. El triangular inferior Cholesky factor $ L $ que satisface $ M = LL ^ * $ es más sencillo de calcular en la práctica. Pero el simétrico / hermitiano La raíz cuadrada $ Q = M ^ {1/2} $ que satisface $ M = Q ^ 2 $ a menudo se prefiere en las pruebas, porque entonces no tiene que realizar un seguimiento de las transposiciones y porque a veces es útil para $ Q $ y $ M $ para compartir autovectores.

Con la raíz cuadrada simétrica definida, las derivaciones para (2) son sencillas: $$ | M ^ {1/2} x | _2 = left (x ^ * M ^ {* / 2} M ^ {1 / 2} x right) ^ {1/2} = left (x ^ * M ^ {1/2} M ^ {1/2} x right) ^ {1/2} = left (x ^ * Mx right) ^ {1/2} = | x | _M. $$ Aquí hay una derivación para (4). Primero, convertimos el numerador: $$ | M ^ {1/2} AN ^ {- 1/2} | _2 = max _ { | x | _2 = 1} | M ^ {1/2 } (AN ^ {- 1/2} x) | _2 = max _ { | x | _2 = 1} | AN ^ {- 1/2} x | _M $$ Ahora definimos $ y = N ^ {- 1/2} x $, o $ x = N ^ {1/2} y $: $$ max _ { | x | _2 = 1} | AN ^ {- 1/2} x | _M = max _ { | N ^ {1/2} y | _2 = 1} | Ay | _M = max _ { | y | _N = 1} | Ay | _M. $ PS

Las respuestas anteriores son perfectamente agradables. Solo quiero señalar otro ejemplo: las normas energéticas.

No sé qué tan familiarizado está con las ecuaciones diferenciales y / o el cálculo de variaciones, pero lo intentaré de todos modos.

Considere la siguiente integral:

$$ E (v) = frac {1} {2} int_ Omega | nabla v | ^ 2 dx $$ donde $ Omega $ es un bonito (digamos, con un límite suave, sin esquinas ni picos) acotado dominio en $ mathbb {R} ^ n $. Esto en muchas aplicaciones representa la energía interna de un sistema en una configuración dada por la función $ v $. Por ejemplo, si $ v $ es el desplazamiento de una configuración de referencia, $ E (v) $ representa el energía elástica del sistema (asumiendo elasticidad lineal).

La integral anterior se puede reescribir como

$$ E (v) = a (v, v) $$ con

$$ a (u, v) = frac {1} {2} int_ Omega nabla u cdot nabla v dx $$

Ahora, supongamos que tenemos un dimensión finita representación de la función $ v $ (si conoce los elementos finitos, sabe hacia dónde me dirijo). Esto significa

$$ v (x) = sum_ {i = 1} ^ n v_i varphi_i (x), $$ donde todos los $ varphi_i (x) $ son fijos y conocidos a priori.

Si inserta esta expresión dentro de la definición de $ E $, obtiene (teniendo cuidado de no meterse con los índices)

$$ E (v) = frac {1} {2} int_ Omega nabla left ( sum_ {j = 1} ^ n v_j varphi_j (x) right) cdot nabla left ( sum_ {i = 1} ^ n v_i varphi_i (x) right) dx \ = cdots = sum_ {i = 1} ^ n sum_ {j = 1} ^ n v_iv_j frac {1} {2 } int_ Omega nabla varphi_j cdot nabla varphi_i dx $$

Ahora sea $ underline {v} $ el vector de los coeficientes $ v_i $ y $ A $ la matriz cuyas entradas son

$$ a_ {ij} = a ( varphi_j, varphi_i) = frac {1} {2} int_ Omega nabla varphi_j cdot nabla varphi_i dx $$ Bajo ciertas suposiciones en $ v $ (para ejemplo, $ v = 0 $ en $ parcial Omega $, el límite de $ Omega $), se puede demostrar que se trata de una matriz definida positiva.

Ahora, si el sistema está en una configuración descrita por $ v $ y $ v $ se expresa como antes, entonces la energía del sistema viene dada por

$$ E (v) = a (v, v) = underline {v} ^ tA underline {v} $$ que es precisamente una norma ponderada de $ underline {v} $ (al cuadrado). Aquí la matriz no es exactamente una peso, pero más bien codifica la física del fenómeno. Es posible mostrar que, si $ v $ se expande como antes, y elige sus funciones base $ varphi_i $ de tal manera que

$$ int_ Omega varphi_i varphi_j dx = begin {cases} 0 mbox {if} i neq j \ 1 mbox {if} i = j, end {cases} $$ entonces el estándar euclidiano la norma de $ underline {v} $ corresponde al valor de la integral

$$ I (v) = int_ Omega v ^ 2 dx $$ que es importante norma de $ v $, pero medidas una diferente energía del sistema.

La importancia de las “normas ponderadas”, por qué las necesitamos:

tenga en cuenta que las normas que considera son inducidas por formas bilineales hermitianas, por lo tanto, deberíamos discutir las formas bilineales hermitianas.

Desde el punto de vista del álgebra lineal, no hay nada especial en la forma bilineal hermitiana “estándar” $ langle x, y rangle = x ^ {*} Iy $. Todas las formas bilineales hermitianas son formas bilineales con propiedades hermitianas adicionales. Se puede demostrar que para cada forma bilineal hermitiana $ langle cdot, cdot rangle $ (es decir, un producto interno) existe una matriz hermitiana positiva definida $ M $ tal que $ langle x, y rangle = x ^ {*} Mi $. Y eso es todo. Ninguno de esos productos internos es de ninguna manera “mejor” que el otro.

La única razón por la que distingue el producto interno “estándar” $ langle x, y rangle = x ^ {*} Iy $ es la elección de una base particular de su espacio (es decir, sistema de coordenadas). Lo percibe como un “mejor” producto interno porque su matriz “$ M $” es la matriz de identidad $ I $, la más simple de todas las matrices definidas positivas hermitianas.

Entonces, de hecho, la distinción entre la norma “estándar” y las normas ponderadas es artificial y no tiene un significado real.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)


Tags : /

Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *