Mantén la atención porque en este artículo vas a encontrar la contestación que buscas.Este post ha sido evaluado por nuestros expertos para asegurar la calidad y exactitud de nuestro contenido.
Solución:
“¿Los físicos simplemente usan la palabra desviación estándar para referirse a la incertidumbre?” A menudo asumimos que los resultados de nuestras mediciones tienen una distribución normal (podemos argumentar que, si no sabemos el motivo de la desviación del valor “real”, lo más probable es que se deba a muchos factores y si tiene muchos arbitrariamente factores distribuidos que influyen en una variable, esa variable sigue la distribución normal (teorema del límite central). Entonces podemos usar alguna medida del ancho de la distribución normal como nuestra incertidumbre, por ejemplo, la desviación estándar. Pero, por supuesto, usted es básicamente libre para elegir lo que usa, un sigma podría estar bien ahora, pero a menudo se usan múltiplos de sigma. También puede saber que lo que sea que esté midiendo, de hecho, no tiene una distribución normal, entonces tendría que elegir alguna otra medida de incertidumbre. Entonces, cuando se trata de incertidumbres, no existe una solución única para todos. Sin embargo, la propagación del error gaussiano basada en desviaciones estándar es la opción si no hay razones en contra y, en ese caso, la incertidumbre y algún múltiplo de sigma sería lo mismo.
Ahora a la pregunta de qué valores poner para los sigmas. Déjame mencionar que $ sqrt frac 1 n-1 sum_i left (x_i – bar x right) ^ 2 $ no es la desviación estándar sino un estimador de la desviación estándar “real” de la distribución, que en sí misma tiene una incertidumbre (si fuera el valor real de la desviación estándar, esa fórmula debería dar el mismo resultado para cada muestra). Entonces, “¿por qué no conectamos las desviaciones estándar de las distribuciones”? Porque es posible que tenga una mejor estimación de la desviación estándar que el estimador anterior.
“¿No significaría esto que podría manipular la desviación estándar σ solo por los valores que elija para sus incertidumbres?” Sí tu puedes. Por lo general, tendría que describir en detalle por qué eligió alguna medida de incertidumbre y otras podrían criticar su elección y cuestionar sus resultados debido a eso.
los key La diferencia entre estas ecuaciones es la naturaleza del error: mientras que la primera se usa para error sistematico, el segundo se usa para errores aleatorios.
La primera ecuación es la derivada total de una función $ f = f (x, y) $ en el punto $ (x_0, y_0) $$$ tag1 df = df (x_0, y_0) = frac partial f (x_0, y_0) partial x dx + frac partial f (x_0, y_0) party y dy $$
Este es true para cualquier función y cualquier variable. Ya que sistemático los errores son constantes desconocidas su varianza es cero. Sin embargo, eq. (1) nos dice cómo una “compensación sistemática” $ dx $ genera una “compensación sistemática” $ df $: Los errores sistemáticos $ dx $ está ponderado por la derivada$ frac parciales f parciales x $, porque la gravedad del error depende de la rapidez con que la función $ f $ cambios alrededor del punto $ (x_0, y_0) $. Por eso usamos la ecuación. (1) para estimar el error sistemático.
En contraste, su segunda ecuación nos dice cómo variables aleatorias$ x $ y $ y $ influir en la variable de respuesta $ f (x, y) $. Al cuadrar ambos lados obtenemos
$$ tag2 Var[f(x_0,y_0)]
approx left ( frac partial f (x_0, y_0) partical x right) ^ 2Var[x]
+ izquierda ( frac parcial f (x_0, y_0) parcial y derecha) ^ 2Var[y]
$$
donde yo uso $ sigma_x ^ 2 = Var[x]PS. La varianza de $ x $ no es cero, porque si intentamos establecer la entrada en $ x_i = x_0 $, realmente obtenemos $ x_i = x_0 + epsilon_i $, dónde $ epsilon_i $ es un error aleatorio. Espero que estas declaraciones dejen en claro que $ dx ne sigma_x $. Aunque ambos son “incertidumbres”, los errores sistemáticos y aleatorios son fundamentalmente diferentes. Sidemark: La confusión con respecto a las palabras incertidumbre y desviación estándar es comprensible, porque la gente a menudo las usa como sinónimos. Sin embargo, históricamente existen otras “convenciones”. Por lo tanto, le recomiendo encarecidamente que no utilice la palabra “incertidumbre” a menos que la haya definido previamente o que la utilice sólo de forma cualitativa (no cuantitativa).
¿Cómo estimamos la varianza? $ Var[f(x,y)]PS en eq. (2)? Consideremos un ejemplo simple, donde solo tenemos una única variable de entrada aleatoria $ x $ (sin segunda entrada $ y $). Por tanto, tenemos varias opciones
- Nosotros definimos $ x_i = x_i ^ (objetivo) $ y vuelva a medir la respuesta $ f (x_i) $ sin cambiar el valor objetivo $ x_i ^ (objetivo) = x_0 = const $. Sabemos que la variable de entrada fluctúa según $ x_i = x_0 + epsilon_i $. Por tanto, midiendo la variable de respuesta varias veces obtenemos una estimación de $ Var[f(x_0)] = frac 1 n-1 sum_ i = 1 ^ n (f_i – bar f) ^ 2 $. Aunque no tenemos forma de determinar $ Var[x_i]PS, obtuvimos una estimación de $ Var[f(x_0)]PS sin utilizar la propagación de errores. Tenga en cuenta que el error sistemático no se incluye en $ Var[f(x)]PS.
- Nosotros definimos $ x_i = x_i ^ (objetivo) $ y cambiar los valores objetivo $ x_i ^ (objetivo) $. Los llamados residuales $ r (x_i) = f (x_i) – f ( bar x) $ son el error aleatorio $ epsilon_f $. Por lo tanto, $ Var[f(x_i)] = Var[r(x_i)]PS proporciona una estimación de la varianza de la variable de respuesta.
- Podemos consultar el manual de nuestro equipo de medición y utilizar su precisión como estimación de $ Var[f(x_i)]PS. Hay formas sofisticadas de obtener una estimación más precisa, asumiendo una distribución de probabilidad, a partir de la cual se muestrea el error aleatorio; sin embargo, esto va más allá de su pregunta.
- Podemos adivinar un error aleatorio. $ sigma_x $ y utilice la fórmula de propagación de errores, eq. (2), para comprobar cómo se influye en el resultado. Este es sin duda el método menos objetivo.
Sección de Reseñas y Valoraciones
Tienes la posibilidad dar recomendación a este ensayo si te fue útil.