Saltar al contenido

¿Qué es un covector y para qué se utiliza?

Hola, descubrimos la solución a lo que andabas buscando, has scroll y la hallarás más abajo.

Solución:

Adición: en una nueva respuesta, he continuado brevemente con la explicación a continuación para definir tensores generales y no solo formas diferenciales (tensores covariantes).

Muchos de nosotros nos confundimos mucho con las nociones de tensores en geometría diferencial, no por su estructura o definición algebraica, sino por la confusión de la notación antigua. La motivación para la notación $ dx_i $ está perfectamente justificada una vez que se introduce la diferenciación exterior de formas diferenciales, que son simplemente covectores multilineales antisimétricos (es decir, tomar un número de vectores y dar un número, cambiando de signo si reordenamos sus vectores de entrada). La confusión en su caso es mayor porque está usando $ x_i $ para su base de vectores, y $ x_i $ son en realidad sus funciones de coordenadas locales.

CONSTRUCCIÓN Y NOTACIÓN:

Sea $ V $ un espacio vectorial finito sobre un campo $ mathbb k $ con base $ vec e _1, …, vec e _n $, sea $ V ^ *: = operatorname Hom (V, mathbb k) $ sea su espacio vectorial dual, es decir, el espacio lineal formado por funcionales lineales $ tilde omega: V rightarrow mathbb k $ que comen vectores y dan escalares. Ahora el producto tensorial $ bigotimes_ i = 1 ^ p V ^ * = 🙁 V ^ *) ^ otimes p $ es solo el espacio vectorial de las funciones multilineales $ tilde omega ^ (p) : V ^ k rightarrow mathbb k $, por ejemplo, $ tilde omega ( vec v_1, …, vec v_k) $ es un escalar y lineal en sus vectores de entrada. Al alternar esos espacios, se obtienen los funcionales multilineales mencionados anteriormente, que satisfacen $ omega ( vec v_1, …, vec v_k) = operatorname sgn ( pi) cdot omega ( vec v_ pi (1), …, vec v _ pi (k)) $ para cualquier permutación de las entradas $ k $. El ejemplo más fácil es pensar en vectores de fila y matrices: si sus vectores son columnas, piense en los covectores como vectores de fila que por producto matricial le dan un escalar (¡en realidad su producto escalar típico!), Se denominan formas uniformes; de manera similar, cualquier matriz multiplicada por un vector de columna a la derecha y por un vector de fila a la izquierda le da un escalar. Una matriz antisimétrica funcionaría de manera similar pero con la propiedad alterna, y se llama de dos formas. Esto se generaliza para las entradas de cualquier vector $ k $.

Curiosamente, solo hay un número finito de esos espacios alternos: $$ mathbb k cong V ^ 0, V ^ *, (V ^ *) ^ wedge 2: = V ^ * wedge V ^ *, …, (V ^ *) ^ wedge dim V. $$ Si considera que su base de $ V $ es $ vec e _1, …, vec e _n $, por construcción su espacio dual de cubiertas tiene una base de la misma dimensión dada por las formas lineales $ tilde e ^ 1, …, tilde e ^ n $ que satisfacen $ tilde e ^ i ( vec e_k) = delta ^ i_k $, es decir, son los funcionales que dan $ 1 $ solo sobre sus vectores duales y $ 0 $ sobre el resto (los covectors generalmente están indexados por superíndices para usar la convención de suma de Einstein). Es por eso que cualquier covector que actúe sobre un vector $ vec v = sum_i v ^ i vec e_i $ puede escribirse $$ tilde omega = sum_ i = 1 ^ n omega_i tilde e ^ i Flecha derecha tilde omega ( vec v) = sum_ i = 1 ^ n omega_i tilde e ^ i ( vec v) = sum_ i = 1 ^ n omega_i cdot v ^ i. $$

Finalmente, cuando trabajas en variedades diferenciales, dota a cada punto $ p $ con un espacio tangente $ T_p M $ de vectores tangentes y así obtienes un espacio dual $ T_p ^ * M $ de covectores y su espacio alterno $ Omega_p ^ 1 (M) $ de 1-formas alternas (que en este caso coinciden). De manera análoga, usted define sus formas $ k $ en vectores tangentes que definen $ Omega_p ^ k (M) $. Como estos espacios dependen de un punto a otro, empiezas a hablar de los campos de vectores tangentes y los campos de formas diferenciales $ k $, que varían en componentes (con respecto al campo base elegido) de un punto a otro.

Ahora bien, el hecho interesante es que la definición intrínseca constructiva de los vectores tangentes se basa en derivadas direccionales en cada punto. Piense en su colector $ M $ de dimensión $ n $ como se muestra en un gráfico local alrededor de un punto $ p $ por coordenadas: $ x ^ 1, …, x ^ n $. Si tiene una curva $ gamma:[0,1] subset mathbb R rightarrow M $ sobre su variedad que pasa por su punto $ p $ de interés, puede definir intrínsecamente vectores tangentes en $ p $ mirando las derivadas direccionales en $ p $ de cualquier función suave $ f: M rightarrow mathbb R $ que están dados por la tasa de cambio de $ f $ sobre cualquier curva que pase por $ p $. Es decir, en coordenadas locales, su derivada direccional en el punto $ p $ a lo largo (en la dirección tangente de) una curva $ gamma $ que la atraviesa ($ gamma (t_0) = p $) viene dada por (usando la regla de la cadena para la diferenciación con las coordenadas locales para $ gamma (t) $): $$ frac df ( gamma (t)) dt bigg | _ t_0 = sum_ i = 1 ^ n frac parcial f parcial x ^ i bigg | _p frac dx ^ i ( gamma (t)) dt bigg | _ t_0 = sum_ i = 1 ^ n X ^ i vert_p frac parcial f parcial x ^ i bigg | _p. $$ Así es como se debe entender esa ecuación: en cada punto $ p $, diferentes curvas tienen diferentes “tangentes vectores “$ X $ con componentes locales $ X ^ i vert_p in mathbb R $ dado por la diferenciación paramétrica de las ecuaciones locales de la curva (por lo que en realidad solo tiene que preocuparse por las clases de equivalencia de curvas que tienen la misma dirección en cada punto ); la derivada direccional en cualquier punto de cualquier función en la dirección $ X $ es por lo tanto expresable como el operador: $$ X = sum_ i = 1 ^ n X ^ i frac partial partial x ^ i , $$ para todos los componentes posibles $ X ^ i $ tales que sean campos escalares suaves sobre la variedad. De esta manera, ha adjuntado un espacio tangente $ T_pM cong mathbb R ^ n $ en cada punto con base canónica $ vec e_i = frac partial partial x ^ i =: partial_i $ para cada gráfico local de coordenadas $ x ^ i $. Esto parece estar lejos de la noción visual de vectores y vectores tangentes como una “flecha” como se ve en las superficies y subvariedades de $ mathbb R ^ n $, pero puede probar ser equivalente a la definición del espacio tangente geométrico por sumergiendo su variedad en $ mathbb R ^ n $ (que siempre se puede hacer mediante el teorema de incrustación de Whitney) y restringiendo su “flecha” -espacio en cada punto al “flecha” -subespacio de vectores tangente a $ M $ como subvariedades, de la misma manera que se puede pensar en los planos tangentes de una superficie en el espacio. Además, esto se confirma mediante la transformación de componentes, si dos gráficos $ x $ y $ y $ contienen el punto $ p $, entonces sus vectores de coordenadas se transforman con el jacobiano de la transformación de coordenadas $ x mapsto y $: $$ frac parcial parcial y ^ i = suma_ j = 1 ^ n frac parcial x ^ j parcial y ^ i frac parcial parcial x ^ j, $$ que da la antigua regla de transformación para vectores (y tensores) como se define en la física teórica. Ahora es un ejercicio fácil ver que, si un cambio de base en $ V $ de $ vec e_i $ a $ vec e’_j $ viene dado por la matriz invertible $ Lambda ^ i_ j ‘ $ ( que es siempre el caso), entonces la base dual correspondiente está relacionada por la transformación inversa $ Lambda ^ j ‘ _ i: = ( Lambda ^ i_ j’) ^ – 1 $: $$ vec e’_j = sum_ i = 1 ^ n Lambda ^ i_ j ‘ , vec e_i Flecha derecha tilde e’ ^ j = sum_ i = 1 ^ n ( Lambda ^ i_ j ‘) ^ – 1 , tilde e ^ i =: sum_ i = 1 ^ n Lambda ^ j’ _ i , tilde e ^ i, ; text donde sum_i Lambda ^ k ‘ _ i Lambda ^ i_ j’ = delta ^ k ‘ _ j’. $$ Por lo tanto, en nuestra variedad, el espacio cotangente se define como $ T_p ^ * M $ con base de coordenadas dada por los funcionales duales $ omega_ x ^ i ( partial / partial x ^ j) = delta ^ i_j $, $ omega_ y ^ i ( partial / partial y ^ j) = delta ^ i_j $. Por la ley de transformación de los vectores tangentes y la discusión anterior sobre la transformación dual, debemos hacer que las cubiertas de la tangente se transformen con la inversa del jacobiano mencionado anteriormente: $$ omega_y ^ i = sum_ j = 1 ^ n frac parcial y ^ i parcial x ^ j omega_x ^ j. $$ ¡Pero esta es precisamente la regla de transformación para diferenciales por la regla de la cadena! $$ dy ^ i = sum_ j = 1 ^ n frac parcial y ^ i parcial x ^ j dx ^ j. $$ Por lo tanto, es convencional usar la notación $ parcial / parcial x ^ i $ y $ dx ^ i $ para el vector tangente y la base de coordenadas de la cubierta en un gráfico $ x: M rightarrow mathbb R ^ n $.

Ahora, desde el punto de vista anterior, $ dx ^ i $ se consideran los diferenciales clásicos, solo con la nueva perspectiva de ser los duales funcionales de los operadores diferenciales $ parcial / parcial x ^ i $. Para darle más sentido a esto, uno tiene que recurrir a formas diferenciales, que son nuestras formas $ k $ en $ M $. Una forma 1 $ omega en T_p ^ * M = Omega_p ^ 1 (M) $ es entonces solo $$ omega = sum_ i = 1 ^ n omega_i , dx ^ i, $$ con $ omega_i (x) $ variando con $ p $, campos escalares suaves sobre la variedad. Es estándar considerar $ Omega ^ 0 (M) $ el espacio de campos escalares suaves. Después de definir los productos alternos de cuña obtenemos la base de la forma $ k $ $ dx ^ i wedge dx ^ j in Omega ^ 2 (M), dx ^ i wedge dx ^ j wedge dx ^ k in Omega ^ 3 (M), …, dx ^ 1 wedge cdots wedge dx ^ n in Omega ^ n (M) $, (de hecho, no todas las combinaciones de índices para cada orden son independientes debido a la antisimetría , por lo que las bases tienen menos elementos que el conjunto de productos). Todos estos espacios lineales “cotensores” están muy bien unidos en un anillo con esa cuña $ cuña $ producto alterno, y se puede definir una buena operación de diferenciación para tales objetos: la derivada exterior $ mathbf d: Omega ^ k (M ) rightarrow Omega ^ k + 1 (M) $ dado por $$ mathbf d omega ^ (k): = sum_ {i_0 <...

ESTA igualdad final establece la correspondencia entre las diferenciales infinitesimales $ dx ^ i $ y las derivadas exteriores $ mathbf dx ^ i $. Dado que podríamos haber escrito cualquier otro símbolo para la base de $ Omega_p ^ 1 (M) $, está claro que $ mathbf dx ^ i $ son una base para el espacio tangente dual. En la práctica, la notación se reduce a $ mathbf d = d $ ya que estamos trabajando con objetos isomorfos al nivel de su álgebra lineal. Todo esto es la razón por la que $ mathbf dx ^ i ( partial_j) = delta ^ i_j $, ya que una vez se demostró que $ mathbf dx ^ i $ forman una base de $ T_p ^ * M $, es sencillo sin recurrir a las leyes de transformación de componentes. Por otro lado, uno podría comenzar después de la definición de espacios tangentes como arriba, con base de coordenadas $ parcial / parcial x ^ i $ y dualizar a su base de codificador $ tilde e ^ i $ tal que $ tilde e ^ i ( delta_j) = delta ^ i_j $; después de eso, se definen los productos en cuña y los derivados exteriores como de costumbre a partir de espacios cotangentes; entonces es un teorema que para cualquier campo de vector tangente $ X $ y función $ f $ en $ M $ $$ X (f) = sum_ i = 1 ^ n X ^ i frac partial f partial x ^ i = mathbf df (X), $$ así que, en particular, obtenemos como corolario que nuestra base de coordenadas dual original es de hecho el diferencial exterior de las funciones de coordenadas: $$ ( vec e_i) ^ * = tilde e ^ i = mathbf dx ^ i in Omega ^ 1 (M): = T ^ * (M). $$ (Eso es cierto en cualquier punto para cualquier base de coordenadas de los gráficos posibles, por lo que es cierto como campos covector sobre la variedad). En particular, la evaluación de covectors $ mathbf dx ^ i $ en vectores infinitesimales $ Delta x ^ j partial_j $ es $ mathbf dx ^ i ( Delta x ^ j partial_j) = sum_ j = 1 ^ n delta ^ i_j Delta x ^ j $, entonces cuando $ Delta x ^ i rightarrow 0 $ podemos ver los diferenciales infinitesimales como las evaluaciones de vectores infinitesimales por coordenada coordenada.

SIGNIFICADO, USO Y APLICACIONES:

Los Covectors son la estructura esencial para las formas diferenciales en topología / geometría diferencial y la mayoría de los desarrollos importantes en esos campos se formulan o utilizan de una forma u otra. Son ingredientes centrales para temas importantes como:

Dependencia lineal de vectores, determinantes e hipervolúmenes, orientación, integración de formas (teorema de Stokes que generaliza el teorema fundamental del cálculo), homología singular y grupos de cohomología de De Rham (lema de Poincaré, teorema de De Rham, características de Euler y aplicaciones como invariantes para topología algebraica), derivada covariante exterior, conexión y curvatura de paquetes vectoriales y principales, clases características, operadores laplacianos, funciones armónicas y teorema de descomposición de Hodge, teoremas de índice (Chern-Gauß-Bonnet, Hirzebruch-Riemann-Roch, Atiyah-Singer .. .) y estrecha relación con los invariantes topológicos modernos (Donaldson-Thomas, Gromow-Witten, Seiberg-Witten, ecuaciones de Soliton …).

En particular, desde el punto de vista de la física matemática, las formas diferenciales (covectores y tensores en general) son entidades fundamentales para la formulación de teorías físicas en términos geométricos. Por ejemplo, las ecuaciones de electromagnetismo de Maxwell son solo dos ecuaciones de formas diferenciales en el espacio-tiempo de Minkowski: $$ mathbf d F = 0, ; ; star mathbf d star F = J, $$ donde $ F $ es un $ 2 $ -form (una matriz antisimétrica 4×4) cuyos componentes son los componentes del campo vectorial eléctrico y magnetivc $ E_i, , B_j $, $ J $ es un vector espacio-tiempo de densidades de corriente de carga y $ star $ es el operador de estrella de Hodge (que depende de la métrica del colector, por lo que requiere una estructura adicional). De hecho, la primera ecuación es solo la formulación geométrica diferencial de la ley clásica de Gauss para el campo magnético y la ley de inducción de Faraday. La otra ecuación es la ley dinámica de Gauss para el campo eléctrico y la ley del circuito de Ampère. La ley de continuidad de conservación de la carga se convierte en $ mathbf d star J = 0 $. Además, según el lema de Poincaré, $ F $ siempre se puede resolver como $ F = mathbf d A $ con $ A $ un covector en el espacio-tiempo llamado potencial electromagnético (de hecho, en ingeniería eléctrica y telecomunicaciones siempre resuelven las ecuaciones mediante estos potenciales); dado que la diferenciación exterior satisface $ mathbf d circ d = 0 $, los potenciales están subdeterminados por $ A ‘= A + mathbf d phi $, que es precisamente la “invariancia de calibre” más simple que rodea todo el campo de la física . En física teórica, la fuerza electromagnética proviene de un paquete principal $ U (1) $ sobre el espacio-tiempo; generalizando esto para los grupos de Lie $ SU (2) $ y $ SU (3) $ se llega a los modelos matemáticos para las fuerzas nucleares débil y fuerte (teoría electrodébil y cromodinámica). La forma $ F $ de $ 2 $ de Faraday es en realidad la curvatura local de la conexión de calibre para esos haces de fibras y, de manera similar, para las otras fuerzas. Este es el marco de trabajo de la Teoría del calibre en variedades arbitrarias para su espacio-tiempo. La única otra fuerza que queda es la gravedad, y nuevamente la relatividad general se puede escribir en el formalismo de Cartan como una curvatura de una conexión de espín de Lorentz sobre un paquete de calibre $ SO (1,3) $, o de manera equivalente como la curvatura (riemanniana) de la paquete de espacio tangente.

Siempre me ha resultado más fácil pensar en los “covectores” (vectores duales, vectores cotangentes, etc.) como bases de vectores diferentes (potencialmente para un espacio diferente a los vectores “habituales”) porque las propiedades del álgebra lineal siguen siendo básicamente las mismas. Sí, un covector es un objeto que “toma” un vector y devuelve un número, ¡pero podrías definir un vector como un objeto que “toma” un covector y devuelve un número! (Y decir que esto es todo lo que los vectores y los covectors pueden hacer, devolver números a través del producto interno, parece una subestimación de para qué se pueden usar).

Además, en un espacio con una métrica, los covectores se pueden construir fácilmente utilizando los vectores de base tangente.

Sea $ e_1, e_2, e_3 $ una base de espacio tangente para un espacio vectorial real 3d. Los covectors de base son entonces

$$ begin align * e ^ 1 & = frac e_2 wedge e_3 e_1 wedge e_2 wedge e_3 \ e ^ 2 & = frac e_3 wedge e_1 e_1 wedge e_2 wedge e_3 \ e ^ 3 & = frac e_1 wedge e_2 e_1 wedge e_2 wedge e_3 end align * $$

(Estas cuñas simplemente forman objetos de mayor dimensión que los vectores, pero que se construyen a partir de vectores. $ E_2 wedge e_3 $ es, por ejemplo, un objeto plano orientado correspondiente al paralelogramo generado por $ e_2, e_3 $. Por lo tanto, está relacionado con el producto cruzado en 3d, pero el producto de cuña también es útil en otras dimensiones, mientras que el producto cruzado no se generaliza fuera de las 3 y 7 dimensiones).

Básicamente, los covectores de base se forman al encontrar los vectores ortogonales a las hipersuperficies abarcadas por todos los demás vectores de base.

Los Covectors son útiles en gran parte porque ingresan expresiones a través de la derivada vectorial $ nabla $. Por lo general, definimos $ nabla = e ^ i partial_i $ sobre todo $ i $ para abarcar el espacio.

La notación de que los covectors de base son $ dx_1, dx_2, ldots $ es una que también encuentro un poco confusa; en cálculo geométrico, ¡significarían escalares o vectores! Pero creo que entiendo que eso significa que $ nabla x ^ 1 $ extrae el covector de base $ e ^ 1 $ de la derivada del vector, y solo están usando $ d $ para significar algo que de otra manera podría denotarse $ nabla $ (lo cual no es infrecuente, como se ha señalado, en formas diferenciales).

$$ nabla x ^ 1 = e ^ 1 frac parcial parcial x ^ 1 x ^ 1 = e ^ 1 $$

si eso lo deja más claro.

Las respuestas aquí son todas excelentes y profundas, pero también debo admitir, un poco abstractas e intimidantes. Me gustaría presentar una razón concreta para que existan los covectors: hacer que el concepto de producto escalar sea invariante para coordinar las transformaciones.

Digamos que tenemos algún punto $ p $ en una variedad $ M $ con un vector $ V $ que sale de $ p $. Este vector tiene un largo, eso es independiente del sistema de coordenadas local que lo represente con alrededor de $ p $. Podríamos estar haciendo cálculos en esa longitud mientras “transportamos” el vector a lo largo de puntos en la variedad, por lo tanto queremos basar nuestra maquinaria computacional en operaciones que ignoran lo que hacen las coordenadas locales y solo se enfocan en cantidades absolutas. Para calcular normalmente la longitud de un vector, puede usar un producto escalar consigo mismo y sacar la raíz cuadrada, pero mostraré aquí que el producto escalar es vulnerable a los cambios en los sistemas de coordenadas. Por eso traigo coadyuvantes para resolver este problema, aunque la diferencia es muy sutil.

Definición de vector

Sea $ mathbf p $ la posición de un punto $ p $. Podemos establecer una base de coordenadas locales tomando los vectores que resultan de variar $ mathbf p $ variando cada coordenada $ x_i $ mientras se mantienen constantes las demás, es decir, tomando la derivada parcial $ frac partial mathbf p parcial x_i $. Por lo tanto, un vector en $ p $ puede escribirse en términos de esa base

$$ V = suma_i v_i frac parcial mathbf p parcial x_i. $$

Si cambiamos los sistemas de coordenadas locales a $ x_i ‘$, a través de la regla de la cadena obtenemos la relación:

$$ V = sum_i v_i frac d mathbf p d x_i = sum_i v_i sum_j frac dx_j ‘ dx_i frac d mathbf p d x_j’ = sum_i left ( sum_j v_j frac dx_i ‘ dx_j right) frac d mathbf p d x_i’ = sum_i v_i ‘ frac d mathbf p d x_i’ $ PS

lo que significa que $$ v_i ‘= sum_j frac dx_i’ dx_j v_j, $$ por lo que esencialmente hemos multiplicado por la matriz jacobiana $ J $ de la transformación. Escribiendo $ v $ y $ v ‘$ como vectores de columna obtenemos la relación

$$ v ‘= Jv. $$

Problema con la longitud del vector a medida que cambiamos los sistemas de coordenadas

Digamos que tenemos un vector $ V = 1 hat x + 1 hat y $. La longitud de este vector es $ sqrt V cdot V = sqrt 1 + 1 = sqrt 2 $. Ahora reduzcamos la escala del sistema de coordenadas local en 2 para que el vector se convierta en $ V ‘= 2 hat x’ + 2 hat y ‘$. La nueva longitud es $ sqrt V ‘ cdot V’ = sqrt 4 + 4 = 2 sqrt 2 $. La longitud ha cambiado, porque estamos midiendo nuestro vector en términos de coordenadas locales, pero no queremos eso. Queremos una forma de calcular la longitud del vector que es invariante para volver a especificar el sistema de coordenadas local.

Introducción a covector

Un covector es simplemente una función lineal de vectores a números reales, $ alpha: V to mathbb R $. Como ejemplo de un covector, tenemos estas funciones $ dx_i $. Como se ha dicho en las respuestas anteriores, $ dx_i $ no es una longitud sino una función que toma vectores y selecciona el componente de coordenadas $ i $ ésimo, por ejemplo en $ mathbb R ^ 3 $:

$$ dx_1 (A hat e_1 + B hat e_2 + C hat e_3) = A. $$ $$ dx_2 (A hat e_1 + B hat e_2 + C hat e_3) = B. $$ $$ dx_3 (A hat e_1 + B hat e_2 + C hat e_3) = C. $$

Estas funciones forman una base en el espacio de los covectores. Cada función lineal, desde los vectores hasta los números reales, se puede escribir como una combinación lineal de estas funciones:

$$ alpha (v) = sum_i a_i dx_i (v). $$

Ahora, si hacemos un cambio de coordenadas a $ x_i ‘$, tenemos que tomar contribuciones de todos los diferentes

$$ alpha (v) = sum_i a_i dx_i (v) = sum_i sum_j a_i frac dx_i dx_j ‘ dx_j’ (v) = sum_i left ( sum_j a_j frac dx_j dx_i ‘ derecha) dx_i’ (v) = sum_i a_i ‘dx_i’ (v). $$

Ahora vemos que

$$ a_i ‘= sum_j a_j left ( frac dx_j dx_i’ right) $$

Ahora viene la parte importante. Si tomamos un covector y lo aplicamos a un vector, básicamente obtenemos un producto punto:

$$ alpha (v) = sum_i a_i v ^ i = av. $$

Sin embargo, cuando hacemos una transformación de coordenadas a $ x_i ‘$ entonces:

$$ alpha (v) ‘= a’v’ = a frac dx dx ‘ frac dx’ dx v = av. $$

La respuesta sigue siendo la misma. Por lo tanto, hemos encontrado una manera de calcular un “producto escalar” que es invariante a las transformaciones de coordenadas locales.

Revisando el problema

Cuando escalamos el sistema de coordenadas para $ V $ como en el problema anterior, ahora tratamos esto como un covector que se aplica a un vector. Por lo tanto, en la transformación, los componentes del covector en realidad mitad, para que la respuesta sea la misma:

$$ | V | = sqrt alpha (V) = sqrt 1/2 * 2 + 1/2 * 2 = sqrt 2 $$.

Los covectors tldr implementan un “arreglo” al producto escalar en geometría diferencial para que el resultado sea invariante a los cambios del sistema de coordenadas local.

Aquí tienes las reseñas y valoraciones

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *