Saltar al contenido

Cómo calcular el error relativo cuando true el valor es cero?

Posterior a consultar con expertos en este tema, programadores de diversas áreas y profesores hemos dado con la respuesta al dilema y la compartimos en esta publicación.

Solución:

Si esto se basa en cualquier tipo de situación del mundo real, entonces debería haber varias medidas de $x_test$, es decir, una distribución. Entonces tendrá una desviación estándar, o al menos cuantiles, y puede definir la distancia desde la media de la $x_prueba$ a $x_true$ en términos de estos. Por ejemplo, $(mu_prueba – x_true) / sigma_test$ le dará una especie de ‘error relativizado’. También puede aplicar pruebas estadísticas estándar de significancia, por ejemplo, la prueba t.

Antes que nada, permítanme precisar que soy no un estadístico pero un físico muy preocupado por cuestiones numéricas, en particular en el área de ajuste de datos a modelos.

Entonces, primero considera que tienes $[X(i),Y(i)]$ puntos de datos y que desea ajustar un modelo como $$Y =a+b X+c X^2$$ Entre sus puntos de datos, tiene uno para el cual $Y(i)=0$. Si sabe que, para un valor específico y definido de $X=x$, su modelo deber devuelva $Y=0$, debe incluir esta condición y reescribir su modelo como $$Y=b (Xx)+c (Xx)^2$$ Al hacer el análisis a posteriori, no debe considerar el punto de datos $[x,0]$ ya que, por construcción, ha sido excluido del conjunto de datos por la restricción (incluso puede eliminar el punto de datos del conjunto de datos; esto no cambiará sus resultados en absoluto).

El otro problema es más general. Cuando sus $Y(i)$ son casi del mismo orden de magnitud, los errores que definen la función objetivo (por ejemplo, la suma de los cuadrados) no son muy importantes. Pero, si $Y(i)$ cubren un rango muy grande, minimizar la suma de los cuadrados de los residuos da un peso increíble a los valores más altos y los valores pequeños de $Y$ juegan un papel muy pequeño; por lo general, los valores bajos están muy mal representados por el modelo.

Si desea que todos los puntos de datos se representen con la “misma” calidad de ajuste, se requiere una regresión ponderada. Por mí mismo, lo que suelo hacer es minimizar sistemáticamente la suma de los cuadrados de los errores relativos y, aquí, llegamos a su pregunta específica: ¿qué hacer si, para un punto de datos, $Y=0$? Me enfrenté a esta situación en un modelo para el cual no había ninguna restricción evidente y decidí, hace mucho tiempo, definir el error relativo como $$Delta =2 fracY_cal-Y_exp Y_cal+Y_exp$$ Si el error absoluto es pequeño, esto no hace ninguna diferencia; si el error absoluto es grande, esto limita el error al tamaño humano.

Espero y deseo que estas breves notas te sean de alguna ayuda. No dude en publicar si desea continuar con esta discusión.

Permítanme compartir un enfoque que tiene sentido utilizar en algunos casos.

En mi caso, la señal sigue aproximadamente la ley del cuadrado inverso en magnitud, pero también va por encima y por debajo de cero, cruzando el cero en varios puntos. Estoy interesado en el error relativo (es decir, lejos, donde la señal es de microvoltios, necesito una precisión de nanovoltios, pero cerca de la fuente, donde la señal es de unos pocos voltios, necesito una precisión de milivoltios y me gustaría ignorar las desviaciones en el rango de nanovoltios, por lo que no tiene sentido usar el error absoluto).

Pero, si simplemente divido, ya sea por el true señal, la aproximación, o varias combinaciones de los dos, el error relativo se dispara al infinito cerca de los cruces por cero.

La solución es sopesar el error absoluto por el inverso de una señal de medida, que tiene propiedades de caída similares a las de las señales de interés y es positiva en todas partes. En la fórmula del error relativo, el true La señal en sí se usa para eso, pero no tiene que ser así, para producir el comportamiento que espera del error relativo.

De hecho, la señal de normalización podría ser incorrecta por un factor multiplicativo (por ejemplo, si su espacio es anisotrópico, pero aún usa 1/r^2 como denominador), y la razón aún funcionaría bien como un error relativo. Pensar en términos de una escala logarítmica ayuda un poco, porque el error relativo se convierte en una resta, en lugar de una división.


EDITAR

Para citar un artículo (1) con más de 600 citas reportadas por Google Scholar, de una autoridad en estos temas numéricos:

$epsilon = (f_2 – f_1) / f_1;;;$ (7)

[…]

$E_1$ puede, por supuesto, expresarse como un porcentaje, y como cualquier
relativo indicador de error dejará de tener sentido cuando $f_1$ […] es cero o pequeño en relación con $(f_2 – f_1)$, en cuyo caso el denominador de Eq. (7) debe reemplazarse con algún valor de normalización adecuado para el problema en cuestión […]

(Tenga en cuenta que $E_1$ se define como un múltiplo de $epsilon$ en el artículo, pero estos detalles son irrelevantes en el presente contexto).

Tomo esto como un fuerte indicador de que hasta por lo menos 1994, no había mejor analogía de error relativo para las señales que cruzan cero, que la idea que se propone aquí, a saber, dividir por una señal de normalización (que yo llamo el “criterio” señal arriba).

(1) PJ Roache, “Perspectiva: un método para informes uniformes de estudios de refinamiento de redes” – Journal of Fluids Engineering, 1994

Aquí tienes las comentarios y valoraciones

Recuerda algo, que tienes la capacidad de añadir un enjuiciamiento certero si te fue preciso.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)


Tags : /

Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *