Saltar al contenido

¿Para qué sirven los momentos en las estadísticas?

Si hallas algún problema con tu código o proyecto, recuerda probar siempre en un entorno de testing antes añadir el código al proyecto final.

Solución:

La pregunta central en estadística es que, dado un conjunto de datos, nos gustaría recuperar el proceso aleatorio que produjo los datos (es decir, la ley de probabilidad de la población). Esta pregunta es extremadamente difícil en general y, en ausencia de suposiciones sólidas sobre el proceso aleatorio subyacente, realmente no se puede llegar muy lejos (aquellos que trabajan en estadísticas no paramétricas pueden no estar de acuerdo conmigo en esto). Una forma natural de abordar este problema sería buscar objetos simples que identifiquen la distribución de la población si hacemos algunas suposiciones razonables.

La pregunta entonces es qué tipo de objetos deberíamos buscar. Los mejores argumentos que conozco sobre por qué deberíamos mirar la transformada de Laplace (o Fourier; te mostraré qué es esto en un segundo si no lo sabes) de la medida de probabilidad son un poco complicados, pero ingenuamente podemos dibujar una buena heurística de cálculo elemental: dadas todas las derivadas de una función analítica evaluada en cero, sabemos todo lo que hay que saber sobre la función a través de su serie de Taylor.

Supongamos por un momento que la función $ f (t) = E[e^tX]$ existe y se porta bien en un barrio de cero. Es un teorema que esta función (cuando existe y se comporta bien) identifica de manera única la ley de probabilidad de la variable aleatoria $ X $. Si hacemos una expansión de Taylor de lo que está dentro de la expectativa, esto se convierte en una serie de potencias en los momentos de $ X $: $ f (t) = sum_ k = 0 ^ infty frac 1 k! t ^ k E[X^k]$ y, por lo tanto, para identificar completamente la ley de $ X $ solo necesitamos conocer los momentos de población. En efecto, reducimos la pregunta anterior “identificar la ley de población de $ X $” a la pregunta “identificar los momentos de población de $ X $”.

Resulta que (a partir de otras estadísticas) los momentos de población se estiman extremadamente bien por los momentos de muestra cuando existen, e incluso puede tener una buena idea de qué tan lejos del true momentos es posible estar bajo algunas suposiciones a menudo realistas. Por supuesto, nunca podemos obtener una cantidad infinita de momentos con algún grado de precisión a partir de una muestra, por lo que ahora realmente querríamos hacer otra ronda de aproximaciones, pero esa es la idea general. Para las variables aleatorias “agradables”, los momentos son suficientes para estimar la ley de la muestra.

Debo mencionar que todo lo que he dicho anteriormente es heurístico y no funciona en la mayoría de los ejemplos modernos interesantes. En verdad, creo que la respuesta correcta a su pregunta es que no necesitamos momentos porque para muchas aplicaciones relevantes (particularmente en economía) parece poco probable que todos los momentos existan. El caso es que cuando te deshaces de los supuestos de momento pierdes una enorme cantidad de información y poder: sin al menos dos, el Teorema del Límite Central falla y con él van la mayoría de las pruebas estadísticas elementales. Si no desea trabajar con momentos, existe toda una teoría de estadísticas no paramétricas que no hace suposiciones en absoluto sobre el proceso aleatorio.

Los momentos son las constantes de una población, como lo son la media, la varianza, etc. Estas constantes ayudan a decidir las características de la población y, sobre la base de estas características, se discute una población.

Los momentos ayudan a encontrar la AM, la desviación estándar y la varianza de la población directamente, y ayudan a conocer las formas gráficas de la población.

Podemos llamar momentos como las constantes utilizadas para encontrar la forma gráfica, ya que la forma gráfica de la población también ayuda mucho a caracterizar una población.

Una posible intuición es la siguiente. Supongamos que tenemos una variable aleatoria $ X $ y consideremos la probabilidad $ P (| X |> x) $ con algunos $ x> 0 $. Sabemos que $ P (| X |> x) to0 $ como $ x to infty $ (podemos probar esto usando las propiedades de la función de distribución acumulativa). Pero podríamos estar interesados ​​en la tasa de convergencia. Por ejemplo, ¿podemos decir que $$ x ^ pP (| X |> x) to0 $$ como $ x to infty $ con algo de $ p> 0 $? Si $ operatorname E | X | ^ px) to0 $, luego $ operatorname E | X | ^ q < infty $ por cada $ qx) $ y esta tasa de convergencia es importante en muchas situaciones (por ejemplo, la ley de los grandes números y el teorema del límite central). Hablando libremente, cuantos más momentos tenemos, menos probables son los valores grandes de la variable aleatoria.

Si te ha resultado de provecho nuestro post, nos gustaría que lo compartas con otros juniors así contrubuyes a dar difusión a nuestro contenido.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *