Nuestro equipo especializado despúes de muchos días de investigación y de juntar de información, dimos con los datos necesarios, nuestro deseo es que te resulte útil en tu plan.
Solución:
Esta es una pregunta bastante antigua, pero vale la pena revisar este cálculo. Sea $$Pr[X = x] = fracbinommx binomNmnxbinomNn,$$ donde he usado $m$ en lugar de $a$. Podemos ignorar los detalles de especificar el soporte si usamos las convenciones sobre coeficientes binomiales que se evalúan como cero; por ejemplo, $binomnk = 0$ si $k noin , ldots, n$. Luego observamos la identidad $$x binommx = fracm!(x-1)!(mx)! = fracm(m-1)!(x -1)!((m-1)-(x-1))! = m binomm-1x-1,$$ siempre que existan ambos coeficientes binomiales. Así $$x Pr[X = x] = metro fracbinomm-1x-1 binom(N-1)-(m-1)(n-1)-(x-1)frac NnbinomN-1n-1,$$ y vemos que $$operatornameE[X] = fracmnN sum_x fracbinomm-1x-1 binom(N-1)-(m-1)(n-1)-(x -1)binomN-1n-1,$$ y la suma es simplemente la suma de probabilidades para una distribución hipergeométrica con parámetros $N-1$, $m-1$, $ n-1$ y es igual a $1$. Por lo tanto, la expectativa es $operatornameE[X] = millón/N$. Para obtener el segundo momento, considere $$x(x-1)binommx = m(x-1)binomm-1x-1 = m(m-1) binomm-2x-2,$$ que es solo una iteración de la primera identidad que usamos. En consecuencia $$x(x-1)Pr[X = x] = fracm(m-1)binomm-2x-2binom(N-2)-(m-2)(n-2)-(x-2) fracN(N-1)n(n-1)binomN-2n-2,$$ y nuevamente por el mismo razonamiento, encontramos $$operatorname MI[X(X-1)] = fracm(m-1)n(n-1)N(N-1).$$ Ahora es muy fácil ver que el “momento factorial” $$operatornameE[X(X-1)ldots(X-k+1)] = prod_j=0^k-1 frac(mj)(nj)Nj.$$ De hecho, también podemos escribir esto en términos de coeficientes binomiales: $$operatorname Eizquierda[binomXkright] = fracbinommk binomnkbinomNk.$$ Esto nos brinda una manera de recuperar momentos centrales y en bruto; por ejemplo, $$nombre del operadorVar[X] = nombre del operadorE[X^2] – nombre del operadorE[X]^2 = nombre del operadorE[X(X-1) + X] – nombre del operadorE[X]^2 = nombre del operadorE[X(X-1)] + nombre del operadorE[X](1-nombre del operadorE[X]),$$ entonces $$nombre del operadorVar[X] = fracm(m-1)n(n-1)N(N-1) + fracmnNleft(1 – fracmnNright) = fracmn(Nm)(Nn)N^2 (N-1),$$ por ejemplo. Lo bueno de la derivación anterior es que la fórmula para la expectativa de $binomXk$ es muy fácil de recordar.
Los ensayos no son independientes, pero están distribuidos de forma idéntica y, de hecho, intercambiables, por lo que la covarianza entre dos de ellos no depende de cuáles sean. Esperaban que el número de bolas negras en cualquier prueba fuera $a/N$, así que solo suma $n$ veces.
La varianza de una prueba es $pq=p(1-p) = dfrac a Ncdotleft(1 – dfrac a Nright)$, pero también necesita la covarianza entre dos pruebas. La probabilidad de obtener una bola negra en los dos primeros intentos es $dfraca(a-1)N(N-1)$. Entonces la covarianza es beginalign operatornamecov(X_1,X_2) & = operatornameE(X_1 X_2) – (operatornameEX_1)(operatornameEX_2) \[10pt]
& = Pr(X_1=X_2=1) – (Pr(X_1=1))^2 \[10pt]
& = fraca(a-1)N(N-1) -left( frac a N right)^2. endalinear
Sume $n$ varianzas y $n(n-1)$ covarianzas para obtener la varianza: $$ operatornamevar(X_1+cdots+X_n) = sum_i operatornamevar(X_i) + sum_ i,j,:,ine joperatornamecov(X_i,X_j). $$
(Tendrá que hacer un poco de simplificación algebraica de rutina).
Te mostramos las comentarios y valoraciones de los usuarios
Recuerda algo, que te concedemos esclarecer .