Saltar al contenido

¿Es la desviación estándar lo mismo que la entropía?

Presta atención ya que en esta reseña vas a hallar la solución que buscas.Este post fue probado por nuestros expertos para garantizar la calidad y exactitud de nuestro post.

Solución:

Ellos no son los mismos. Si tiene una distribución bimodal con dos picos y permite que el espacio entre ellos varíe, la desviación estándar aumentaría a medida que aumenta la distancia entre los picos. Sin embargo, a la entropía $$H(f) = -int f(x) log f(x) dx$$ no le importa dónde están los picos, por lo que la entropía sería la misma.

Más contraejemplos:

  1. Sea X una variable aleatoria discreta que toma dos valores $(-a,a)$ con igual probabilidad. Entonces la varianza $sigma_X^2=a^2$ aumenta con $a$, pero la entropía es constante $H(X)=1$ bit.

  2. Sea $X$ una variable aleatoria discreta que toma valores en $1 cdots N$ con alguna distribución arbitraria no uniforme $p(X)$. Si permutamos los valores de $p(X)$, la varianza cambiará (disminuirá si movemos los valores más grandes hacia el centro), pero la entropía es constante.

  3. Sea $X$ una variable aleatoria continua con distribución uniforme en el intervalo $[-1,1]$ $p(X)=1/2$. Vamos a modificarlo para que su probabilidad (en el mismo soporte) sea mayor hacia los extremos: digamos, $p(Y)=|Y|$. Entonces $sigma^2_Y > sigma_X^2$ pero $H(Y)< H(X)$ (la distribución uniforme maximiza la entropía para un soporte compacto fijo).

La entropía y la desviación estándar ciertamente no son lo mismo, pero la entropía en la mayoría de los casos (si no en todos) depende de la desviación estándar de la distribución. Dos ejemplos:

Para la distribución exponencial con función de densidad $$lambda e^-lambda x,;; xge 0,, SD=1/lambda$$tenemos

$$H(X) = 1-lnlambda = 1+ln SD$$

Entonces, a medida que SD aumenta, también lo es (aquí diferencial) la entropía.

Para la distribución Normal, con función de densidad $$frac1sigmasqrt2pi, e^-frac(x – mu)^22 sigma^2 , ;; SD = sigma$$ tenemos

$$H(X) = frac12 ln(2 pi e , sigma^2) = frac12 ln(2 pi e) +ln SD $$ así que nuevamente la entropía diferencial aumenta con SD.

(Tenga en cuenta que la Entropía diferencial puede ser negativa).

Te mostramos reseñas y valoraciones

Recuerda que tienes la capacidad de decir si diste con la solución.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *