Saltar al contenido

Las integrales estocásticas me están confundiendo; Explique cómo calcular $ int W_sdW_s $, por ejemplo

Hola usuario de nuestra página web, tenemos la solución a lo que buscabas, deslízate y la obtendrás un poco más abajo.

Solución:

Como tienes muchas preguntas, mi respuesta será incluso más larga que la tuya :). (A lo largo de mi respuesta, usaré $ a wedge b: = min a, b $ para denotar el mínimo de $ a $ y $ b $).

“Integración itô” e “integración estocástica”

En realidad, la integración de Itô es una forma particular de integración estocástica. También hay otras formas de definir integrales estocásticas. Sin embargo, en cierto sentido, la integral Itô es LOS integral estocástica (en el sentido de que es (uno de) los más importantes).

$ X_t $ se denota como la integral estocástica, pero $ X_t = X (t) $, según tengo entendido, ¿así que esto también es un proceso estocástico en sí mismo?

Si eso es correcto. Por cada $ t geq 0 $ fijo,

$$ X_t ( omega) = left ( int_0 ^ t g_s , dW_s right) ( omega) $$

es una variable aleatoria y la familia de variables aleatorias $ (X_t) _ t geq 0 $ es un proceso estocástico.

¿Y qué es $ dW_s $?

Bueno, primero que nada es simplemente una notación (sí, sé que no te gusta escuchar eso). Definimos $$ int_0 ^ t g_s , dW_s: = sum_ i g_i (W_ t_ i + 1 wedge t -W_ t_i wedge t), tag 1 $$ por lo que el lado izquierdo es solo una notación que hemos introducido para acortar cosas.

¿Qué es esta variable $ s $? ¿Es una variable de tiempo?

Si. Si desea sentirse un poco más cómodo con esto, eche un vistazo a las integrales de Riemann-Stieltjes; estas son integrales de la forma

$$ int_0 ^ th (s) , df (s) $$

para funciones “agradables” $ h $ donde $ f:[0,infty) to mathbbR$ is a function of bounded variation (this is all deterministic, no dependence on $omega$!); in particular for step functions of the form

$$h(t) = sum_i=1^n c_i 1_[t_i,t_i+1)(t)$$

this integral is (defined as)

$$int_0^t h(s) , df(s) = sum_i=1^n c_i (f(t_i+1 wedge t) – f(t_i wedge t)).$$

For $f(t) = t$ this yields the standard Riemann integral. On the other hand, if we formally plug in $f(t) := W_t(omega)$ and $h(t) :=g(t,omega)$ for fixed $omega$ this gives $(1)$. (Note: This is just a motivation why we define the integral $(1)$ as we do it. The Itô integral is not a Riemann-Stieltjes integral.)

But what is $omega$ in $g_t(omega)$

Well, hopefully you do know the basics of probability theory…? $Omega$ denotes the underlying probability space and, as usual, $omega in Omega$ is an element of this space. It models the randomness. (Note that $g_t$ itself is again a stochastic process.)

What does $g_t^n$ mean? $g_t = g(t)$ to the power of $n$?

No, this is not the power; just a notation. As it is written there we define

$$g_t^n(omega) := sum_i=0^n-1 g_t_i 1_[t_i,t_i+1)(t), tag2$$

i.e. we use the notation $g_t^n$ to denote the simple process defined by (2). If you are confused by this, then use always the notation $g(t)$ instead of $g_t$, because then we can define

$$g_n(t,omega) := sum_i=0^n-1 g_t_i 1_[t_i,t_i+1)(t). tag3 $$

(I hope you are not even more confused. Basically, the trouble is that we have to put the index $n$ somewhere and if we use the lower index for the time, then the only remaining possibility is to use the upper index.)

Why is this up to $n-1$ and not $n$ or $infty$?

We are interested in the stochastic integral $int_0^T W_s ,dW_s$, right? So we want to define an approximation of the function $g(t,omega) := W_t(omega)$ on $[0,T]PS Si considera los intervalos $[t_i,t_i+1)$, $i=0,ldots,n-1$, then you see that they cover the interval $[0,T]PS Por eso se elige de esta manera.

Aunque, ¿por qué $ T_i $ y no $ i $ como en la definición?

Está confundiendo varias cosas, el $ g $ que tiene en este ejemplo y el $ g $ de su definición de la integral Itô. Permítanme reescribir la definición y luego comprenderán. Nuestra definición establece que si $ h $ es un proceso simple de la forma

$$ h (t, omega) = sum_ i geq 0 h_i ( omega) 1_ [t_i,t_i+1)(t) tag4$$

then

$$int_0^t h(s) , dW(s) := sum_i geq 0 h_i (W_t_i+1 wedge t-W_t_i wedge t). tag5$$

Now, for fixed $n in mathbbN$, our approximating simple process $g_t^n$ (see $(3)$) is of the form $(4)$ where $h_i := g_t_i = W_t_i$. By our definition $(5)$ this gives the claimed result.

Why $W_T^2$ in particular? […] ¿Y es esto $ T = infty $?

¡No, $ T $ no es $ infty $! Justo al comienzo de su ejemplo, expresó su problema:

Encuentra $ int_0 ^ T W_s , dW_s $

y aquí $ T> 0 $ es un número real fijo. Este es el mismo número fijo que sigue apareciendo durante toda la prueba.

$ W_T ^ 2 = sum_ i = 0 ^ n-1 (W_ t_ i + 1 ^ 2-W_ t_i ^ 2) $

Eso es solo una suma telescópica.

$$ begin align * sum_ i = 0 ^ n-1 (W_ t_ i + 1 ^ 2-W_ t_i ^ 2) & = (W_ t_1 ^ 2 -W_ t_0 ^ 2) + (W_ t_2 ^ 2-W_ t_1 ^ 2) + ldots + (W_ t_n ^ 2-W_ t_ n-1 ^ 2) \ & = W_ t_ n ^ 2 – W_ t_0 ^ 2 = W_T ^ 2 end align * $$

ya que $ t_n = T $ y $ W_ t_0 = W_0 = 0 $ (porque $ (W_t) _t $ es un movimiento browniano).

La respuesta de saz es muy útil desde el punto de vista conceptual. Me gustaría agregar que la forma en que normalmente calculamos analíticamente integrales estocásticas es explotar la fórmula de Ito de una manera inteligente. Esto se parece mucho a la integración por sustitución. Por ejemplo, para calcular $ int_0 ^ t W_s dW_s $, adivina por analogía con el cálculo ordinario que la respuesta podría ser $ frac 1 2 W_t ^ 2 $. Entonces la fórmula de Ito te dice

$$ frac 1 2 W_t ^ 2 = int_0 ^ t W_s dW_s + frac 1 2 t. $$

Este término adicional a veces se denomina “término de corrección Ito”. Una forma intuitiva de verlo es que el lado izquierdo tiene expectativa $ frac t 2 $ mientras que el primer término del lado derecho siempre tiene expectativa cero. Esto se debe aproximadamente a que es un límite de combinaciones lineales de gaussianos cero medios. (Sin embargo, los coeficientes son aleatorios. La convención Ito, en la que el integrando se evalúa en el extremo izquierdo, y el uso de integrandos “no anticipados” nos permite sortear este tecnicismo).

Entonces, algo con expectativa $ frac 1 2 t $ necesita agregarse; resulta que es solo $ frac 1 2 t $ en este caso particular.

Como resultado de esto, obtienes

$$ int_0 ^ t W_s dW_s = frac 1 2 left (W_t ^ 2 – t right). $$

Se trata de una especie de “comentario extenso” en lugar de una respuesta directa a todas sus preguntas; todas sus preguntas parecen girar en torno a “¿qué diablos estamos haciendo aquí, de verdad?” y mientras @saz recibe mi voto positivo por responder pacientemente a cada una de tus preguntas, siento que el espíritu de la pregunta tal vez aún esté abierta.

Lo primero que hay que decir es que el ruido, las matemáticas estocásticas, se trata de hacer cálculo con funciones altamente no diferenciables. Si tiene algún tipo de circuito eléctrico, puede describir las ecuaciones diferenciales que lo gobiernan, pero si la señal de entrada en este extremo es ruidosa, entonces eso realmente significa que las ecuaciones diferenciales no pueden darle la respuesta adecuada con el cálculo estándar. .

Acumulantes, Sumas de Variables Aleatorias, Límite Central Thm.

En primer lugar, analicemos un montón de probabilidad clásica, porque quiero presentar el hecho de que la varianza es pseudo-lineal, pero es una historia mucho más general.

Supongamos que tenemos una variable aleatoria $ X $ distribuida con algún PDF $ f (x), $ entonces la transformada de Fourier de ese PDF se llama su función característica, $$ f[k] = langle e ^ – 2 pi ikX rangle = int _ – infty ^ infty dx ~ f (x) ~ e ^ – 2 pi ikx. $$ Si $ Z = X + Y $ donde $ X $ y $ Y $ son independientes, y $ Y $ tiene PDF $ g (y) $ y $ Z $ por lo tanto tiene PDF $ h (z), $ entonces resulta que tenemos $ h[k] = f[k]~ g[k]. $ Por lo tanto, el logaritmo de una transformada de Fourier de un PDF es pseudo-lineal, en el sentido de que es lineal en variables aleatorias independientes.

La serie de Maclaurin de este logaritmo es la expansión acumulativa $$ log f[k] = 0 + mu ~ (-2 pi ik) + frac12 ~ sigma ^ 2 ~ (-2 pi ik) ^ 2 + dots = sum_ n = 1 ^ infty kappa_n ~ (-2 pi ik) ^ n over n!. $$ Cada acumulante es igualmente pseudo-lineal. Puede obtener algunos casos especiales simplemente expandiendo los términos individualmente, por ejemplo, la primera derivada es $ f ‘[k]/F[k]$ y en $ k = 0 $ esto es $ langle -2 pi i X rangle $ entonces $ mu = langle X rangle, $ mientras que la segunda derivada es $ (f[k]~ f ”[k] – f ‘[k]~ f ‘[k])/F[k]^ 2 $ que es $ (- 2 pi i) ^ 2 big ( langle X ^ 2 rangle – langle X rangle ^ 2 big). $ Entonces, los dos primeros acumulados son la media y la varianza.

Además, bajo la escala $ X mapsto alpha X $ podemos ver que $ langle e ^ – 2 pi ik alpha X rangle = f[alpha k]$ y, por lo tanto, el efecto es mapear los acumulados cada $ kappa_n mapsto alpha ^ n kappa_n. $ Así que esa es nuestra ley de escala.

El efecto combinado de estos es una de las formas más fáciles de ver el teorema del límite central: la suma $ Z = sum_ m = 1 ^ M X_m / M, $ para $ X_m $ independientes e idénticamente distribuidos va a tener acumulados $ kappa_n / M ^ n-1, $ con un $ M $ proveniente de la pseudo-linealidad y el resto de los $ M ^ – n $ provenientes de esta ley de escala. Mantener solo los dos términos iniciales le da la media y la desviación estándar, y todos los demás acumulados son cero, pero este logaritmo cuadrático es característico de una función característica gaussiana, y la transformada de Fourier de un gaussiano es un gaussiano, por lo que obtiene un gaussiano Distribución de probabilidad.

De la varianza pseudo-lineal a los paseos aleatorios.

Entonces, si imaginamos una fuente de ruido que es un límite de un proceso de caminata aleatoria, la suma de muchos pasos en direcciones aleatorias durante tiempos infinitesimales, sabemos que el corto tiempo de autocorrelación de esos pasos conduce a esta suma de esa señal. teniendo un varianza proporcional a la duración. (En otras palabras, tenemos $ N $ pasos independientes, ya que la varianza es pseudo-lineal, la varianza crece proporcionalmente a $ N $, pero al mismo tiempo sabemos que para esta caminata, $ N $ crece linealmente con $ t $, entonces la varianza debe ser proporcional al intervalo de tiempo de la caminata). Por lo tanto, podemos describir un montón de cosas diferentes si partimos de una fuente de ruido blanco perfecta donde $ dW $ es una pequeña unidad de ruido con media cero que obedece a la ecuación heurística $ dW ^ 2 = dt $ – todo lo demás son constantes aditivas y demás. $ dW $ a menudo se denomina proceso de Wiener o movimiento browniano, y es la integral de una fuente de “ruido blanco gaussiano”. También podemos imaginar que los diferenciales de orden superior son esencialmente nada, ya que el teorema del límite central nos dice que los acumulantes de orden superior desaparecen de todos modos dejando solo la distribución gaussiana.

Retroceda un segundo y piense en como tenemos que pensar acerca de esta caminata aleatoria $ dW. $ En la práctica, necesitamos que también sea una función con respecto al tiempo, $ dW (t). $ Los matemáticos, por alguna razón, suelen escribir esto como un sufijo, $ dW_t; $ los físicos se sienten más cómodos con escribirlo entre paréntesis. Entonces tenemos que el incremento estocástico en una variable $ X $ durante un paso de tiempo es igual a un ruido aleatorio con desviación estándar $ sigma (t) $ y significa $ mu (t), $ o: $$ dX_t = sigma_t ~ dW_t + mu_t ~ dt. $$ Este $ X $ se conoce como un “proceso Itô”. El resultado clave sobre tales procesos, que es el mismo que nuestro heurístico $ dW_t ^ 2 = dt $ anterior, se llama lema de Itô: sea $ f (x, t) $ dos veces diferenciable y aplíquelo término por- término a la secuencia de tiempo $ X_t, $ entonces las secuencias transformadas resultantes son otro proceso Itô, y su ecuación estocástica correspondiente es: $$ begin align df (X_t, t) approx & ~ f (X_t + dX_t, t + dt) – f (X_t, t) \ approx & ~ f (X_t, t) + frac parcial f parcial t ~ dt + frac parcial f parcial x ~ dX_t + frac12 ~ frac partial ^ 2 f partial x ^ 2 dX_t ^ 2 – f (X_t) end align $$ Manteniendo los términos para ordenar $ dt $ con nuestra regla heurística $ dW = sqrt dt $ da: $$ df (X_t, t) = left ( frac partial f partial t + frac partial f partial x ~ mu_t + frac12 ~ frac partial ^ 2 f partial x ^ 2 ~ sigma_t ^ 2 right) ~ dt + sigma_t ~ frac partial f partial x ~ dW_t. $$ Este se puede ver como una modificación de la regla de la cadena para que se aplique incluso cuando estamos tratando con estas funciones no diferenciables.

Del álgebra a las simulaciones por ordenador.

Entonces, resulta que hay otra forma de hacer cálculo estocástico que conserva la regla de la cadena, llamada integral de Stratonovich, y conserva la regla de la cadena. ¡¿Por qué usaríamos este torpe formalismo de Itô con su regla de cadena rota ?!

Bueno, resulta ser una de esas cosas en las que hay un montón de criterios diferentes y es imposible resolverlos satisfactoriamente. Lo que hace Itô con lo que Stratonovich es malo, es que una vez que tenga la ecuación diferencial Itô, tendrá la simulación por computadora. Este es muy poderoso. La declaración formal de esto viene dada por el Itô integral: elija una malla de integración de $ N $ puntos en el tiempo $ t_n $, con $ T = t_N. $ Entonces $$ int_0 ^ TH ( tau) ~ dW ( tau) = lim_ N to infty ~ sum_ n = 1 ^ N ~ H (t_n) cdot big (W (t_n) – W (t_ n-1) big). $$ (el límite solo funciona, por supuesto, si el tamaño máximo en la malla se reduce a 0 a medida que los puntos van al infinito …)

En otras palabras, si usa una malla lo suficientemente fina, puede simular esto dando pasos aleatorios del tamaño apropiado (variables aleatorias gaussianas con desviación estándar $ sqrt t_n – t_ n-1 $) y sumando aumentar su respuesta agregada.

Entonces, una vez que sepa cómo funcionan sus ecuaciones diferenciales, use esta $ dW = sqrt dt $ heurística para poner algo de ruido a través de ellas, mantenga los términos principales en $ dt, $ y luego sabrá cómo responde la salida a un cierto perfil de ruido.

Luego, ejecuta miles de simulaciones con su computadora para ver qué surge realmente, por ejemplo, cuánto tiempo duran sus turbinas eólicas bajo una carga ruidosa realista de velocidades del viento.

A dónde va el campo desde allí.

Si trabaja en matemáticas aplicadas o en ciencias físicas, generalmente querrá determinar cómo se ve este ruido en el espectro de frecuencia, cómo otros espectros de ruido entran en la integral y es posible que tenga que lidiar con un contador discreto más o menos donde $ dN $ debe ser 0 o 1 y, por lo general, la suma de ese proceso se verá como un proceso de Poisson, todas esas cosas buenas. Por tanto, el proceso de Wiener es nuestra fuente de ruido más fácil de manejar, pero no necesariamente la única imaginable. Estudiar esos incrementos de $ dN $ se convierte en una tarea para la “teoría de las colas”.

Luego están cosas como la teoría del control, donde comienzas a tratar de averiguar cuáles son los parámetros óptimos para controlar un sistema que tiene una entrada ruidosa, como un mercado de valores o un sistema cuántico.

Y también puedes saltar al extremo más profundo de la teoría: el difunto Paul Malliavin forjó un nuevo terreno (¿creo que en los años 70 y 80?) Al generalizar el cálculo de variaciones a un contexto estocástico, después de lo cual descubrimos que puedes hacer la integración estocástica por partes y un tipo llamado Anatoliy Skorokhod descubrió que una generalización de la integral de Itô es también el operador de divergencia vectorial de dimensión infinita.

Puntuaciones y reseñas

Si tienes algún atasco y disposición de perfeccionar nuestro noticia eres capaz de ejecutar una interpretación y con mucho placer lo leeremos.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *