Bienvenido a nuestra comunidad, ahora vas a hallar la respuesta que necesitas.
Solución:
Estoy de acuerdo con @Ron Maimon en que estas preguntas de ETS son problemáticas. Pero este es (creo) el razonamiento que siguen. A diferencia de la suposición de @ Mike, no debe tomar el promedio normal, pero como se indica en la pregunta, ponderado promedio. Un promedio ponderado asigna a cada medida $ x_i $ un peso $ w_i $ y el promedio es entonces
$$ frac sum_iw_ix_i sum_i w_i $$
Ahora la pregunta es ¿qué pesos se deben tomar? Un ansatz razonable es pesar las medidas con mejor precisión más que las de menor precisión. Hay un millón de formas de hacer esto, pero de ellas, una podría dar las siguientes ponderaciones:
$$ w_i = frac 1 ( Delta x_i) ^ 2, $$ que corresponde a la inversa de la varianza.
Así que conectando esto, tendremos
$$ c = frac 1 cdot a + frac 1 4 cdot b 1+ frac 1 4 = frac 4a + b 5 $$
Por lo tanto,
$$ Delta c = sqrt left ( frac parcial c parcial a Delta a right) ^ 2 + left ( frac parcial c parcial b Delta b right) ^ 2 $$
$$ Delta c = sqrt left ( frac 4 5 1 right) ^ 2 + left ( frac 1 5 2 right) ^ 2 = sqrt frac 16 25 + frac 4 25 = sqrt frac 20 25 = sqrt frac 4 5 = frac 2 sqrt5 $$
cual es la respuesta dada en la respuesta key.
Por qué $ w_i = 1 / sigma_i ^ 2 $
La verdad es que esta elección es no completamente arbitrario. Es el valor de la media que maximiza la probabilidad (el estimador de máxima verosimilitud).
$$ P ( x_i ) = prod f (x_i | mu, sigma_i) = prod frac 1 sqrt 2 pi sigma_i exp left (- frac 1 2 frac left (x_i- mu right) ^ 2 sigma_i ^ 2 right) $$. Esta expresión se maximiza, cuando el exponente es máximo, es decir, la primera derivada wrt $ mu $ debería desaparecer:
$$ frac parcial parcial mu sum_i left (- frac 1 2 frac left (x_i- mu right) ^ 2 sigma_i ^ 2 right) = sum_i frac left (x_i- mu right) sigma_i ^ 2 = 0 $$
Por lo tanto, $$ mu = frac sum_i x_i / sigma_i ^ 2 sum_i 1 / sigma_i ^ 2 = frac sum_iw_ix_i sum_i w_i $$ con $ w_i = 1 / sigma_i ^ 2 $
Sería muy poco razonable obtener que la incertidumbre del promedio de las mediciones sea mayor que la incertidumbre de cualquier medición (√5 / 2> 1). Después de todo, ¿de qué sirve tomar promedios si solo hace que sus lecturas sean más inciertas?
Creo que la gente de ETS utilizó el argumento de que la suma armónica de las variaciones individuales debería dar el recíproco de la variación del promedio, es decir, 1 / v = 1 / v1 + 1 / v2, como se detalla aquí: http://en.wikipedia.org / wiki / Weighted_arithmetic_mean # Tratando_con_varianza
Dado que otras preguntas, así como Google, apuntan a esta pregunta, me gustaría extender la respuesta ya existente de luksen por una motivación del estocástico para usar la ecuación de propagación del error.
Supongamos que tenemos $ n $ medidas aleatorias $ X_i $, normalmente denotadas por $ E X_i pm sigma_i $ (o $ x_i pm Delta x_i $), mientras que $ E cdot $ y $ sigma_i $ denotan el valor esperado y la desviación estándar, respectivamente. Según la pregunta, nos interesa el promedio ponderado de estas medidas, calculado por $ Y = frac sum_i w_i X_i sum_i w_i $ ($ = c $). Gracias a la linealidad del valor esperado, es bastante fácil obtener $$ E Y = E left frac sum_i w_i X_i sum_i w_i right = frac sum_i w_i E X_i sum_i w_i. $$ Para la varianza $ sigma ^ 2 $, necesitamos algunas líneas más, pero no trucos. $$ begin align sigma ^ 2 & = E left (YE Y ) ^ 2 right = E left left ( frac sum_i w_i X_i sum_i w_i – E left frac sum_i w_i X_i sum_i w_i right right) ^ 2 right \ & = frac 1 ( sum_i w_i ) ^ 2 E left left ( sum_i w_i X_i right) ^ 2 – 2 left ( sum_i w_i X_i right) left ( sum_j w_j E X_j right) + izquierda ( sum_i w_i E X_i right) ^ 2 right \ & = frac 1 ( sum_i w_i) ^ 2 E left sum_ i, j w_i X_i w_j X_j – 2 sum_ i, j w_i X_i w_j E X_j + sum_ i, j w_i E X_i w_j E X_j right \ & = frac 1 ( sum_i w_i) ^ 2 sum_ i, j w_i w_j left (E X_i X_j – 2 cdot E X_i E X_j + E X_i E X_j right) \ & = frac 1 ( sum_i w_i) ^ 2 sum_ i, j w_i w_j left (E X_i X_j – E X_i E X_j right) \ & = frac 1 ( sum_i w_i) ^ 2 sum_ i, j w_i w_j cdot Cov (X_i, X_j) end align $$ La covarianza tiene $ Cov (X_i, X_i) = sigma_i ^ 2 $ y, siempre que las medidas originales $ X_i $ y $ X_j $ sean independientes, $ Cov (X_i , X_j) = 0 $ de lo contrario. Esto lleva a la respuesta de la pregunta original, la varianza (desviación estándar al cuadrado) del promedio $ Y $ de $ n $ mediciones $ X_i $ con incertidumbre aleatoria $ sigma_i $: $$ sigma ^ 2 = frac 1 ( sum_i w_i) ^ 2 sum_i w_i ^ 2 sigma_i ^ 2, $$ lo que produce $$ Delta c = sigma = frac 1 sum_i w_i sqrt sum_i (w_i sigma_i) ^ 2. $$ Eso es exactamente lo que produce la ecuación de propagación de errores después de insertar las derivaciones de $ c $. ¿Por qué es exacta mientras que la ecuación de propagación del error es una aproximación? La ecuación de propagación del error se aproxima por un Tayler de primer orden expansión. Dado que el promedio es un lineal función, es exacta y no sólo aproximada, aquí.
Información adicional: Para el promedio no ponderado ($ w_i = 1 ~ forall i $), obtenemos $$ E Y = frac 1 n sum_i E X_i quad quad quad sigma ^ 2 = frac 1 n ^ 2 sum_i sigma_i ^ 2 $$ Si todas las muestras originales $ X_i $ tienen la misma varianza $ tilde sigma ^ 2 $, esto también conduce a la varianza bien conocida del promedio: $$ sigma ^ 2 = frac tilde sigma ^ 2 n. $$
valoraciones y comentarios
Al final de todo puedes encontrar las notas de otros usuarios, tú de igual manera puedes mostrar el tuyo si dominas el tema.