Después de de esta extensa búsqueda de información dimos con la respuesta esta contratiempo que pueden tener ciertos lectores. Te regalamos la respuesta y deseamos servirte de gran ayuda.
Solución:
Necesitamos distinguir entre dos afirmaciones aquí:
- Los parámetros de la población no pueden ser aleatorios, solo los datos que obtenemos sobre ellos pueden ser aleatorios.
- Interpretar los intervalos de confianza como que contienen un parámetro con una cierta probabilidad es incorrecto.
La primera es una declaración radical que usted describe correctamente como filosofía frecuentista (en algunos casos, “dogma” parecería más apropiado) y que no necesita suscribir si encuentra una interpretación subjetivista de las probabilidades interesante, útil o quizás incluso true. (Ciertamente lo encuentro al menos útil e interesante).
La segunda afirmación, sin embargo, es true. Los intervalos de confianza son animales intrínsecamente frecuentistas; se construyen con el objetivo de que, independientemente del valor del parámetro desconocido, para cualquier valor fijo tenga la misma probabilidad prescrita de construir un intervalo de confianza que contenga el “true” valor del parámetro. No puedes construirlos según esta receta frecuentista y luego reinterpretarlos de manera subjetivista; que lleva a una declaración que es false no porque no siga el dogma frecuentista sino porque no se derivó de una probabilidad subjetiva. Un enfoque bayesiano conduce a un intervalo diferente, al que correctamente se le da un nombre diferente, un intervalo creíble.
Un ejemplo instructivo lo brindan los intervalos de confianza para el parámetro de tasa desconocida de un proceso de Poisson con una tasa de ruido de fondo conocida. En este caso, hay valores de los datos para los que es determinado que el intervalo de confianza no no contener el “true” parámetro. Esto no es un error en la construcción de los intervalos; ellos tener construirse así para permitir su interpretación frecuentista. Interpretar tal intervalo de confianza de manera subjetivista resultaría en una tontería. Los intervalos de credibilidad bayesianos, por otro lado, siempre tienen una cierta probabilidad de contener el parámetro “aleatorio”.
Hace poco leí una buena exposición de este ejemplo, pero no puedo encontrarlo en este momento; lo publicaré si lo vuelvo a encontrar, pero por ahora creo que este documento también es una introducción útil. (El ejemplo $11$ en la página $20$ es particularmente divertido).
Así es como aparece en All of Statistics de Larry Wasserman
Advertencia ! Hay mucha confusión acerca de cómo interpretar un intervalo de confianza. Un intervalo de confianza no es una declaración de probabilidad sobre $theta$ (parámetro del problema), ya que $theta$ es una cantidad fija, no una variable aleatoria. Algunos textos se interpretan de la siguiente manera: si repito una y otra vez, el intervalo contendrá el parámetro el 95 por ciento de las veces. Esto es correcto pero inútil ya que rara vez se realiza el mismo experimento una y otra vez. Una mejor interpretación es esta: el día 1 recopila datos y construye un intervalo de confianza del 95 por ciento para un parámetro $theta_1$. El día 2, recopila nuevos datos y construye un intervalo de confianza del 95 por ciento para un parámetro no relacionado $theta_2$. […] Continúa de esta manera construyendo intervalos de confianza para una secuencia de parámetros no relacionados $theta_1, theta_2, dots$. Entonces el 95 por ciento de sus intervalos atraparán el true valor del parámetro. No es necesario introducir la idea de repetir el mismo experimento una y otra vez.
Intervalos de confianza dentro del paradigma frecuentista: Tiene razón en que estas afirmaciones (advertencia contra la interpretación del intervalo de confianza como un intervalo de probabilidad para el parámetro) provienen del hecho de que los intervalos de confianza surgen en el método frecuentista clásico y, en ese contexto, el parámetro se considera una “constante desconocida” fija. , no una variable aleatoria. Hay una declaración de probabilidad relevante relacionada con el intervalo de confianza, que es:
$$mathbbP(L(mathbfX) leqslant mu leqslant U(mathbfX) mid mu) = 1-alpha,$$
donde $L(mathbfX)$ y $U(mathbfX)$ son límites formados como funciones de los datos de muestra $mathbfX$ (normalmente mediante el uso de la reorganización de un enunciado de probabilidad sobre una cantidad fundamental). Es importante destacar que el vector de datos $mathbfX$ es la variable aleatoria en esta declaración de probabilidad, y el parámetro $mu$ se trata como una “constante desconocida” fija. (He indicado esto al ponerlo como una variable condicionante, pero dentro del paradigma frecuentista ni siquiera especificaría esto; simplemente estaría implícito). El intervalo de confianza se deriva de esta declaración de probabilidad tomando los datos de muestra observados $ mathbfx$ para obtener el intervalo fijo $textCI(1-alpha) = [ L(mathbfx), U(mathbfx) ]ps
La razón de las afirmaciones que está leyendo es que una vez que reemplaza los datos de muestra aleatorios $mathbfX$ con los datos de muestra observados $mathbfx$, ya no puede hacer que la declaración de probabilidad sea análoga a la anterior. Dado que los datos y los parámetros son constantes, ahora tiene la declaración trivial:
$$mathbbP(L(mathbfx) leqslant mu leqslant U(mathbfx)) = begincasos 0 & textsi mu notin text CI(1-alfa), \[6pt] 1 & textif mu in textCI(1-alpha). endcasos$$
Intervalos de confianza dentro del paradigma bayesiano: Si prefiere interpretar el parámetro desconocido $mu$ como una variable aleatoria, ahora está realizando un tratamiento bayesiano del problema. Si bien el intervalo de confianza es un procedimiento formulado dentro del paradigma clásico, es posible interpretarlo dentro del contexto del análisis bayesiano.
Sin embargo, incluso dentro del contexto bayesiano, es quieto no vale para afirmar posteriormente que el CI contiene el true parámetro con la probabilidad especificada. De hecho, esta probabilidad posterior depende de la distribución previa del parámetro. Para ver esto, observamos que:
$$mathbbP(L(mathbfx) leqslant mu leqslant U(mathbfx) mid mathbfx) = int limits_L(mathbfx )^U(mathbfx) pi(mu | mathbfx) dmu = fracint_L(mathbfx)^U( mathbfx) L_mathbfx(mu) pi(mu)dmuint L_mathbfx(mu) pi(mu) dmu. $$
Esta probabilidad posterior depende de la anterior y generalmente no es igual a $1-alpha$ (aunque puede serlo en algunos casos especiales). La declaración de probabilidad inicial utilizada en el intervalo de confianza impone una restricción en la distribución de muestreo, lo que restringe la función de verosimilitud, pero aún nos permite la libertad de elegir diferentes anteriores, lo que genera diferentes probabilidades posteriores para la corrección del intervalo.
(Nota: es fácil demostrar que $mathbbP(L(mathbfX) leqslant mu leqslant U(mathbfX)) = 1-alpha$ usando la ley de -probabilidad total, pero esta es una probabilidad previa, no una probabilidad posterior, ya que no condiciona los datos, por lo que dentro del paradigma bayesiano podemos decir a priori que el intervalo de confianza contendrá el parámetro con la probabilidad especificada, pero generalmente no podemos decir esto posteriormente.)
valoraciones y comentarios
Ten en cuenta compartir esta sección si te valió la pena.