Saltar al contenido

Cálculo de la Covarianza de Mezclas Gaussianas

Indagamos en distintos sitios para traerte la solución para tu problema, si tienes alguna inquietud deja la inquietud y te contestaremos con gusto.

Solución:

Un modelo mixto comúnmente se refiere a una suma ponderada de densidades, no a una suma ponderada de variables aleatorias como en la respuesta de Sasha. Como ejemplo más simple, se dice que una variable aleatoria (escalar) $Z$ tiene una densidad gaussiana mixta si su función de densidad de probabilidad es $$f_Z(z)=alpha f_X(z)+(1−alpha)f_Y(z), ~0

Más generalmente, una densidad de mezcla tendría $n, n > 1,$ términos con pesos positivos $alpha_1, alpha_2, ldots, alpha_n$ sumando $1$. Es más simple pensar en una partición del espacio muestral en eventos $A_k, 1 leq k leq n$, con $P(A_k) = alpha_k$. Entonces, $Z$ es una variable aleatoria cuya
distribución condicional dada $A_k$ es una distribución Gaussiana $f_k(z) sim N(mu_k,sigma_k^2)$, y por lo tanto la incondicional la distribución es, a través de la ley de probabilidad total, $$f(z) = sum_k=1^n alpha_k f_k(z).$$ La expresión desgarbada $alpha(sigma_X^2+mu_X^ 2) + (1-alfa)(sigma_Y^2 + mu_Y^2) – [alphamu_X + (1-alpha)mu_Y]^2$ derivado anteriormente para la varianza de $Z$ puede ser manipulado en $$bigr[alphasigma_X^2 + (1-alpha)sigma_Y^2bigr]
+ biggr(bigr[alphamu_X^2 + (1-alpha)mu_Y^2bigr]
– Gran R[alphamu_X + (1-alpha)mu_Ybigr]^2biggr)$$ que, aunque todavía no es bonito, se puede identificar como una ilustración de la fórmula de la varianza condicional:

La varianza de $Z$ es la media de la varianza condicional más la varianza de la media condicional.

Cuando $Z$ es una variable aleatoria vectorial cuyas distribuciones condicionales son conjuntamente gaussianas con el vector medio $mu$ y la matriz de covarianza $C_i$, se pueden realizar cálculos similares y calcular la matriz de covarianza incondicional. Suponga que la densidad condicional de $Z$ dado $A_k$ es una densidad gaussiana conjunta con el vector medio $mu^(k)$ y la matriz de covarianza $C^(k)$. Entonces, $$E[Z_i] = sum_k=1^n alpha_k mu_i^(k) ~texty~ E[Z_iZ_j] = sum_k=1^n alpha_k bigr(C_i,j^(k) + mu_i^(k)mu_j^(k)bigr)$$ dando $$beginalignC_i,j = textcov(Z_i,Z_j) &= sum_k=1^n alpha_k bigr(C_i,j^(k ) + mu_i^(k)mu_j^(k)bigr) – left(sum_k=1^n alpha_k mu_i^(k)right) left (sum_k=1^n alpha_k mu_j^(k)right)\ &= left(sum_k=1^n alpha_k C_i,j^( k)right) + left(sum_k=1^n alpha_k mu_i^(k)mu_j^(k) – left(sum_k=1^n alpha_k mu_i^(k)right) left(sum_k=1^n alpha_k mu_j^(k)right)right) endalign$$ que es una ilustración de la fórmula de covarianza condicional:

La covarianza de dos variables aleatorias es la media de las covarianzas condicionales más la covarianza de las medias condicionales.

$nuevocomandovarnombre del operadorvar$
Puedes escribir $x = y + texterror$donde $y = mu_i$ con probabilidad $alpha_i$por $i=1,ldots,M$y el condicional distribución de probabilidad del “error” dado$y$ es $N(0,C_i)$. Entonces nosotros tenemos
$$ E(x) = E(E(xmid y)) = Eleft.begincases vdots \ mu_i & textcon probabilidad alpha_i \ vdots endcases right} = sum_i=1^Malpha_imu_i, $$
y
$$ beginalign var(x) = & E(var(xmid y)) + var(E(x mid y)) \[12pt]
= & Eleft.begincasos vdots \ C_i & textcon probabilidad alpha_i \ vdots endcasosright} \ & + varleft .begincasos vdots \ mu_i & textcon probabilidad alpha_i \ vdots endcasos right} \[12pt]
= & sum_i=1^M alpha_i C_i + sum_i=1^M alpha_i(mu_i-barmu)(mu_i-barmu)^T, finalinear $$

donde $barmu=sum_i=1^M alpha_imu_i$.

Motivado por la respuesta proporcionada por Michael Hardy, una solución formal a tal pregunta podría formularse de la siguiente manera:

Al introducir una nueva variable oculta $yo$ para representar la identidad del modelo local, la probabilidad de las mezclas gaussianas se puede descomponer como:
$$p(x|I=i)=mathcalN(mu_i,C_i)$$$$p(I=i)=alpha_i$$
Por lo tanto,
$$E(x)=E[E(x|I=i)]=sum_i=1^M alpha_i mu_i$$beginalign Var(x)&=E[Var(x|I=i)]+var[E(x|I=i)] \ &=sum_i=1^M alpha_i C_i + sum_i=1^M alpha_i (mu_i-barmu)(mu_i-bar mu)^T endalinear
donde $barmu=E(x)$. Además, la Ley de expectativa total y la Ley de varianza total se han utilizado en las dos ecuaciones anteriores.

Tienes la posibilidad dar difusión a esta noticia si te fue útil.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *