Te damos la respuesta a esta inconveniente, o por lo menos eso creemos. Si tienes inquietudes coméntalo y sin dudarlo te ayudaremos
Solución:
Hay dos posibilidades aquí:
-
Existe el concepto de matriz ortogonal. Tenga en cuenta que se trata de un único matriz, no sobre dos matrices. Una matriz ortogonal es una matriz real que describe una transformación que deja sin cambios los productos escalares de vectores. El término “matriz ortogonal” probablemente proviene del hecho de que dicha transformación conserva la ortogonalidad de los vectores (pero tenga en cuenta que esta propiedad no define completamente las transformaciones ortogonales; además, necesita que la longitud tampoco cambie; es decir, una base ortonormal se asigna a otra base ortonormal). Otra razón para el nombre podría ser que las columnas de una matriz ortogonal forman una base ortonormal del espacio vectorial, al igual que las filas; este hecho está realmente codificado en la relación definitoria $A^TA = AA^T = I$ donde $A^T$ es la transpuesta de la matriz (intercambio de filas y columnas) y $I$ es la matriz identidad.
Por lo general, si se habla de matrices ortogonales, esto es lo que se quiere decir.
-
De hecho, se pueden considerar las matrices como vectores; una matriz $ntimes n$ es entonces solo un vector en un espacio vectorial de $n^2$-dimensional. En dicho espacio vectorial, se puede definir un producto escalar como en cualquier otro espacio vectorial. Resulta que para matrices reales, el producto escalar estándar se puede expresar de la forma simple $$langle A,Brangle = operatornametr(AB^T)$$ y, por lo tanto, también se pueden definir dos matrices como ortogonales entre sí cuando $langle A,Brangle = 0$, al igual que con cualquier otro espacio vectorial.
Para imaginar esto, simplemente olvide que las matrices son matrices y considere todas las entradas de la matriz como componentes de un vector. Entonces, los dos vectores son ortogonales en el sentido habitual.
No es común decir que dos matrices son ortogonales entre sí, sino que se habla de que una matriz es una matriz ortogonal.
Formalmente, una matriz $A$ se llama ortogonal si $A^TA = AA^T = I$. En otras palabras, las columnas de la matriz forman una colección de vectores ortogonales (y normados); si toma dos columnas distintas, son ortogonales como vectores. (También podría considerar las filas).
“Físicamente”, una matriz ortogonal corresponde a una distancia que preserva la transformación lineal (como una rotación) del espacio.
$newcommandRealsmathbfR$Sean $m$ y $n$ números enteros positivos. El conjunto $Reals^m times n$ de todas las matrices reales $m times n$ es “esencialmente” el espacio $Reals^mn$ de todos los vectores reales con $mn$ componentes: Solo pon el entradas de una matriz en una sola columna en un orden específico. El producto escalar ordinario en $Reals^mn$ nos permite hablar de geometría euclidiana en el espacio de $m times n$ matrices. En particular, podemos hablar de dos matrices que son “ortogonales” si su producto escalar es cero.
Resulta que el producto escalar de dos $m times n$ matrices reales $A$ y $B$ tiene una fórmula simple, $operatornametr(A^TB)$. (En palabras, multiplique la transposición de $A$ por $B$, luego sume las entradas diagonales de la matriz cuadrada resultante).
Sin embargo, como dice quid, hay una definición completamente diferente de “ortogonal” como una propiedad de una única matriz $n times n$, que es “Si $u$ y $v$ son vectores en $Reals^n$, entonces $u cdot v = 0$ si y solo si $Au cdot Av = 0$”. Esto resulta ser equivalente a “La multiplicación por $A$ conserva todos los conceptos de la geometría euclidiana”, o “Las columnas de $A$ forman una base ortonormal de $Reals^n$”, entre otras.
Si alguien se le acerca y le dice: “Sean $A$ y $B$ dos matrices ortogonales…”, la interpretación de quid es probablemente lo que quiere decir. Pero si de ello dependen vidas, aclara con el que pregunta. 🙂
Si te gusta la programación, eres capaz de dejar un enunciado acerca de qué le añadirías a esta división.