Saltar al contenido

¿Por qué la covarianza es algo importante?

Posterior a de nuestra larga compilación de datos resolvimos este asunto que tienen algunos lectores. Te regalamos la respuesta y nuestro deseo es servirte de gran apoyo.

Solución:

La respuesta anterior ofrece una descripción interesante del uso de la covarianza en la teoría de carteras. Me gustaría agregar algunos detalles sobre el razonamiento detrás del concepto y definición de covarianza, sus ventajas e inconvenientes, su posible interpretación “geométrica” ​​y sus principales aplicaciones. Espero que las siguientes explicaciones y ejemplos puedan ayudarlo a interpretar mejor la covarianza y su relevancia.

Como ya se mencionó, la varianza es una medida que cuantifica cuánto dos variables aleatorias de valor real “varían juntas”, es decir, cómo los cambios en una variable se asocian con los cambios en otra variable. Su significado es algo similar, aunque diferente, como se explica a continuación, al de correlación estadística. La definición de covarianza para dos variables aleatorias $ X $ y $ Y $ es

$$ Cov (X, Y) = E left ([X-E (X)][Y-E (Y)] derecha) $$

donde $ E (z) $ denota el valor esperado de $ z $.

La interpretación de esta definición es la siguiente. Las cantidades $ XE (X) $ y $ YE (Y) $ representan las desviaciones de las medias para los puntos individuales del conjunto de datos. Si dos variables tienen una relación positiva, es decir, valores más altos o más bajos de la primera tienden a asociarse con valores correspondientemente más altos o más bajos de la segunda, entonces para la mayoría de los ítems las dos desviaciones mostrarán un signo concordante y luego un signo positivo. producto. El resultado será un valor medio positivo de estos productos, es decir, una covarianza positiva. De manera similar, si dos variables varían juntas a través de una relación negativa, entonces las dos desviaciones de la media mostrarán un signo discordante y luego un producto negativo para la mayoría de los artículos. El resultado será un valor medio negativo de estos productos, es decir, una covarianza negativa.

Por otro lado, si las dos variables están mal correlacionadas, entonces las dos desviaciones mostrarán un signo concordante en algunos ítems y un signo discordante en otros ítems. Entonces, los productos serán en parte positivos y en parte negativos. Esto finalmente da como resultado un valor medio relativamente pequeño de estos productos, es decir, una covarianza relativamente pequeña. El caso extremo ocurre cuando las dos variables son independientes. En este caso, la covarianza es cero. Esto se puede demostrar observando que, expandiendo el producto, la expresión de covarianza informada anteriormente se puede escribir como

$$ E left ([X-E (X)][Y-E (Y)] derecha) = E (XY) – E (X) E (Y) $$

Porque bajo independencia $ E (XY) = E (X) E (Y) $, la covarianza para variables independientes es cero. También tenga en cuenta que la inversa no es true, es decir covarianza cero no implica independencia. Ejemplos clásicos de esto son, por ejemplo, conjuntos de datos $ XY $ que forman un círculo o un cuadrado: aquí la covarianza es cero, pero las variables son claramente dependientes.

Una buena manera de entender la definición de covarianza desde un punto de vista geométrico, como se pide en el OP, podría ser considerar un gráfico de dispersión de datos genérico $ XY $, trazando una línea horizontal correspondiente a $ E (Y) $ y un línea vertical correspondiente a $ E (X) $. Para simplificar, transpongamos todo el diagrama de dispersión de modo que estas dos líneas coincidan con el eje $ x $ y el eje $ y $, respectivamente. Ahora, si tomamos un punto $ (X_i, Y_i) $ del diagrama de dispersión y dibujamos, desde este punto, las dos distancias perpendiculares a los ejes, obtenemos un rectángulo cuya área es igual al producto $ | (X_i-E (X )) (Y_i-E (Y)) | $. En particular, si el rectángulo está en el primer o tercer cuadrante, el producto es positivo y es igual al área del rectángulo; si el rectángulo está en el segundo o cuarto cuadrante, el producto es igual al negativo del área del rectángulo. Repitiendo esto para todos los puntos del diagrama de dispersión, creamos un conjunto de rectángulos. El área promedio de estos rectángulos (calculada considerando como positivas las áreas de los del primer o tercer cuadrante, y como negativas las áreas de los del segundo o cuarto cuadrante) es un equivalente geométrico de la covarianza. Por ejemplo, si un conjunto de datos se distribuye estrechamente alrededor de la línea $ Y = 2X $, la mayoría de los rectángulos se dibujarán en el primer y tercer cuadrante, de modo que su área promedio, así como la covarianza, serán positivas. Si un conjunto de datos se distribuye estrechamente alrededor de la línea $ Y = -2X $, la mayoría de los rectángulos se dibujarán en el segundo y cuarto cuadrante, de modo que su área promedio, así como la covarianza, serán negativas. Por otro lado, si un conjunto de datos tiende a estar disperso alrededor del origen sin una tendencia lineal, los rectángulos se dibujarán en todos los cuadrantes. En este caso, tendremos que sumar una cantidad más equilibrada de cantidades positivas y negativas, lo que finalmente conducirá a un área promedio más pequeña y luego a una covarianza más pequeña.

Los ejemplos anteriores también son útiles para comprender dos key puntos sobre el significado de la covarianza. La primera es que la covarianza, como medida de correlación, es $ textbf no escalado $, y luego se ve estrictamente afectada por los rangos de datos. Como tal, el signo de la covarianza nos da la dirección de la relación potencial (positiva o negativa) entre las dos variables, pero no nos dice nada sobre la fuerza de la relación. La versión escalada de la covarianza es la correlación estadística, que se obtiene dividiendo la covarianza por el producto de la DE de las dos variables. En comparación con la covarianza, la correlación estadística es una mejor medida para expresar la fuerza de la relación: estandariza la cantidad de interdependencia entre las dos variables, cuantificando así qué tan cerca se mueven las dos variables (en este sentido, tenga en cuenta también que la unidad dimensional de la covarianza es el producto de las unidades dimensionales de las dos variables, mientras que la correlación es adimensional). En consecuencia, dos variables con un determinado grado de correlación pueden mostrar una covarianza grande o pequeña, según el rango de los datos. Por ejemplo, un conjunto de datos $ XY $ formado por los puntos $$ (- 5, -5), (1,1), (4,4) $$ y otro conjunto de datos formado por los puntos $$ (- 500, – 500), (100,100), (400,400) $$ claramente tienen una correlación perfecta igual a $ 1 $, pero la covarianza es $ 14 $ en el primer caso y $ 140,000 $ en el segundo caso. Por tanto, el signo de covarianza tiene un significado más definido que su magnitud: una covarianza positiva implica que las variables están relacionadas positivamente, mientras que una covarianza negativa implica que las variables están relacionadas negativamente.

El segundo punto es que la covarianza es una $ textbf medida de linealidad $. Esto significa que el signo de la covarianza nos da información solo sobre la tendencia en la relación lineal entre las variables, pero nos dice poco sobre la existencia de relaciones no lineales.

A pesar de estas limitaciones, existen varios escenarios y aplicaciones en las que uno podría estar interesado en calcular la covarianza. Entre estos, se encuentran los siguientes:

  • problemas en los que necesitamos determinar la varianza de la suma de dos variables aleatorias, ya que

$$ var (X + Y) = var (X) + var (Y) +2 cov (X, Y) $$

  • en el contexto de los procedimientos de incorporación de datos / reducción de dimensionalidad, donde la covarianza entre variables en un conjunto de datos dado puede ser útil para desenmascarar un espacio de dimensión inferior que aún puede capturar la mayor parte de la varianza en los datos. Por lo general, esto se realiza combinando variables que están altamente correlacionadas (es decir, tienen una alta covarianza), para minimizar la pérdida de información. Un ejemplo clásico de esta aplicación es el análisis de componentes principales, un procedimiento estadístico comúnmente utilizado para convertir un conjunto de observaciones de variables potencialmente correlacionadas en un conjunto más pequeño de variables linealmente no correlacionadas (componentes principales definidos);

  • en todos los casos en los que necesitemos utilizar una matriz de covarianza. Dados dos vectores $ displaystyle X = (x_ 1, dots, x_ n) $ y $ displaystyle Y = (y_ 1, dots, y_ m) $ de azar variables, una matriz de covarianza es una matriz $ n times m $ cuyo término en la posición $ (i, j) $ es la covarianza $ Displaystyle operatorname cov (x_ i, y_ j) PS Un ejemplo de esta aplicación es el análisis de correlación canónica estándar, un procedimiento estadístico destinado a encontrar combinaciones lineales de las variables $ X_i $ y $ Y_j $, que tienen máxima correlación entre sí;

  • en ciencias genómicas, para la evaluación computacional de similitud entre conjuntos de datos de secuenciación de ADN o ARN. Estos análisis de secuencia comparativa se aplican a menudo, por ejemplo, para probar la reproducibilidad de réplicas biológicas o técnicas, o para detectar regiones de ADN altamente conservadas entre especies;

  • en economía, por ejemplo, en teoría de carteras (ya descrita en la respuesta anterior). Simplificar, por ejemplo, los cálculos de covarianza puede brindar a los inversores información importante sobre cómo dos acciones podrían moverse juntas en el futuro. El comportamiento de los precios históricos es útil para evaluar si los precios tienden a moverse entre sí o en oposición. Esto le permite predecir el posible movimiento de precios de una cartera de dos acciones.

Esta lista claramente no es exhaustiva, pero espero que pueda darle una idea de las amplias aplicaciones de la covarianza.

La covarianza le ayuda a calcular la varianza de una combinación lineal de variables aleatorias. Dadas dos variables aleatorias $ X_1 $ y $ X_2 $ con varianzas $ sigma_1 ^ 2 $ y $ sigma_2 ^ 2 $ y covarianza $ sigma_ 12 $, puede calcular la varianza de $ c_1 X_1 + c_2 X_2 $ como $ c_1 ^ 2 sigma_1 ^ 2 + c_2 ^ 2 sigma_2 ^ 2 + 2 c_1 c_2 sigma_ 12 $.

Una aplicación es la teoría de carteras. Suponga que hay acciones de $ n $. Cada acción (o inversión) $ i $ tiene un valor de retorno esperado $ mu_i $ y varianza $ sigma_i ^ 2 $. Normalmente, cuanto mayor es el rendimiento esperado, mayor es la varianza. Las acciones también tienen covarianzas. Suponga que las acciones $ i $ y $ j $ tienen covarianza $ sigma_ ij $. Las acciones de empresas en el mismo negocio (como dos compañías petroleras) tienen covarianza positiva ya que si el negocio petrolero se vuelve más rentable, ambas acciones aumentan de valor. Algunas empresas tienen covarianza negativa, como una empresa petrolera y un fabricante de paneles solares: si los países transfieren del petróleo a la energía solar, el valor de las acciones del fabricante de paneles solares aumenta mientras que las existencias de petróleo bajan, y viceversa. Ahora suponga que quiere comprar una cartera de acciones. Si compra $ x_i $ unidades de acciones $ i $, entonces el valor esperado de su cartera es $ sum_ i = 1 ^ n mu_i x_j $ y la variación es $ sum_ i = 1 ^ n sum_ j = 1 ^ n sigma_ ij x_i x_j $ (usando la notación $ sigma_ ii $ para $ sigma_i ^ 2 $). Entonces, la covarianza lo ayuda a calcular la varianza de su cartera. La teoría moderna de la cartera se basa en estas fórmulas.

Nos encantaría que puedieras dar difusión a esta crónica si te fue útil.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *