Saltar al contenido

¿Por qué “funciona” la serie de Taylor?

Solución:

Yo también tuve este mismo problema. El truco es darse cuenta de que hay una diferencia importante entre Taylor serie y Taylor aproximaciones o polinomios, cuyo comportamiento es descrito por Taylor teorema. Sí, muy a menudo sospecho que un error común es que primero ves los polinomios y el teorema de Taylor, y luego obtienes la serie de Taylor y eso se convierte en el foco y de repente te olvidas del resto.

Pero aquí, lo que realmente estamos haciendo cuando “truncamos” una serie de Taylor es que volvemos a una Taylor polinomio, ya que eso es lo que es una serie de Taylor truncada, o alternativamente, una serie de Taylor es la extensión natural de un orden infinito. En ese contexto, Taylor teorema le dice exactamente cómo se comporta o no como una aproximación y, sorpresa, no requiere nada sobre analiticidad en absoluto. Analiticidad solamente entra en juego cuando consideras el lleno serie: de hecho, lo que te dice el teorema de Taylor es que un polinomio de Taylor finito todavía funcionará como una aproximación incluso para un no-Función analítica, siempre que se acerque adecuadamente al punto en el que está tomando el polinomio y la función sea lo suficientemente diferenciable como para poder hacer posible tomar el polinomio del grado dado.

Específicamente, el teorema de Taylor le dice que, analítica o no, si corta la serie de Taylor para que el término más alto tenga un grado $ N $, para formar el polinomio de Taylor (o serie de Taylor truncada) $ T_N (a, x) $, dónde $ a $ es el punto de expansión, tienes

$$ f (x) = T_N (a, x) + o (| x – a | ^ N), x rightarrow a $$

donde la última parte define el comportamiento del término restante: esta es la “notación pequeña-o” y significa que el error palidece en comparación con el límite $ | x – a | ^ N $.

Como ejemplo de física matemática elemental, considérese el análisis del potencial “patológico” en la mecánica newtoniana dado por

$$ U (x): = begin {cases} e ^ {- frac {1} {x ^ 2}}, x ne 0 \ 0, mbox {de lo contrario} end {cases} $ PS

que es suave En todas partes, pero no analítico cuando $ x = 0 $. En particular, es tan malo que no solo no es analítico, la serie de Taylor existe e incluso converge … solo para el ¡Cosa incorrecta!:

$$ U (x) “=” 0 + 0x + 0x ^ 2 + 0x ^ 3 + 0x ^ 4 + cdots, mbox {cerca de $ x = 0 $} $$

… y sí, eso es literalmente 0 en cada termino, entonces la expresión de la derecha es igual a $ 0 $!

(AGREGAR – ver comentarios: no … no ESE 0! … uh … Ooops … uhhh …)

sin embargo, si bien eso es técnicamente “incorrecto”, los métodos de análisis habituales que tiene para este sistema le indicarán lo “correcto”, siempre que esté Cuidado: en particular, observamos que $ x = 0 $ parece una especie de “equilibrio”, ya que $ U ‘$ hay cero ahí, pero también notamos que se nos dice – ¡correctamente! – que no debemos aplicar la aproximación del oscilador armónico porque también tenemos que el coeficiente frente a $ x ^ 2 $ es 0 también.

Estamos justificados en ambas conclusiones porque si bien este Taylor serie es “malo”, sigue siendo A-OK según Taylor teorema para escribir la serie truncada, y así Taylor polinomio,

$$ U (x) approx 0 + 0x + 0x ^ 2, mbox {cerca de $ x = 0 $} $$

aunque “es igual a $ 0 $“, porque esto $ U (x) $ es “tan exquisitamente aproximado por la función constante $ U ^ {*} (x): = 0 $” que es $ o (| x | ^ N) $ por cada pedido $ N> 0 $ y así, en particular, también $ N = 2 $! Por lo tanto, el análisis armónico y la conclusión de falla del mismo son todavía 100% justificado!


AGREGAR (IE + 1936.6817 Ms – 2018-05-16): Según un comentario agregado a continuación, hay una arruga adicional en esta historia que había estado pensando en mencionar pero que no lo hizo, pero que, a la luz de eso, pensé que tal vez Ahora debería.

En realidad, hay dos tipos diferentes de formas en las que la serie de Taylor puede fallar cuando una función no es analítica en un punto y se toma en ese punto. Una de ellas es la forma en que mostré anteriormente: donde la serie de Taylor converge, pero converge a lo “incorrecto” en el sentido de que no es igual a la función en ningún intervalo no trivial alrededor de ese punto (usted podría ser capaz de igualarlo en algún extraño conjunto polvoriento / roto, pero no en ningún intervalo), es decir, sin intervalo PS[a – epsilon, a + epsilon]PS con $ epsilon ne 0 $. Tal punto se llama Punto de Cauchy, o Punto C.

La otra forma es que la serie de Taylor tenga realmente un radio de convergencia 0, es decir, no tiene converger en cualquier intervalo no trivial de la misma forma con $ epsilon ne 0 $. Este tipo de punto se llama Punto de Pringsheim, o Punto P. Este caso no se demostró, pero incluso en tal caso, la serie de Taylor sigue siendo un serie asintótica en el sentido de que al menos intentará comienzo para converger si está lo suficientemente cerca y, además, cuanto más cerca esté del punto de expansión $ a $, cuantos más términos pueda tomar antes de que deje de converger y comience a divergir de nuevo. Dado que en física, generalmente estamos interesados, y especialmente. para el oscilador armónico: en solo unos pocos términos de orden inferior, el comportamiento final de la serie no es importante y aún podemos tomarlo para obtener, digamos, la aproximación armónica cerca de un punto de equilibrio, incluso si la función no es analítica allí. – por ejemplo, considere el potencial $ U_3 (x): = U (x) + frac {1} {2} kx ^ 2 $ con $ k> 0 $, donde usamos el primer potencial que acabamos de dar arriba. Esto no es analítico en $ x = 0 $ tampoco, pero no obstante, la aproximación armónica no solo funcionará, sino que funcionará exquisitamente bien, y con la frecuencia $ omega: = sqrt { frac {k} {m}} $ como siempre.

Ver:

https://math.stackexchange.com/questions/620290/is-it-possible-for-a-function-to-be-smooth-everywhere-analytic-nowhere-yet-tay

El teorema de Stone-Weierstrass dice que cualquier función continua en un intervalo compacto se aproxima arbitrariamente bien mediante polinomios. Por lo tanto, siempre que solo estemos interesados ​​en explicar los resultados experimentales (y no en la exacto soluciones de modelos teóricos), las expansiones en serie son suficientemente buenas. Es decir, para lo que sea que nos gustaría describir, hay un modelo (al menos en el sentido estadístico) que lo describe con bastante precisión y que es analítico. Por lo tanto, no parece obvio que alguna vez seamos capaces de decir si el mundo es analítico o simplemente $ C ^ infty $, o incluso $ C ^ 0 $!

Por supuesto, en la práctica, nuestras teorías hacen infinitas predicciones para los valores de tales funciones, por ejemplo, la mecánica las predice como soluciones a ecuaciones diferenciales, la teoría de campo mediante algunas integrales. Por lo general, no podemos evaluar nuestras predicciones teóricas con exactitud, por lo que utilizamos métodos numéricos o de series asintóticas. Las cosas que surgen de nuestros modelos tienden a no ser analíticas, así que creo que estamos un poco estropeados en nuestra educación física con todos estos modelos analíticos y solucionables.

La pregunta de por qué tantas (¡pero no todas!) Soluciones exactas a modelos teóricos son analíticas reales o incluso complejas es una discusión completamente diferente, y mucho más misteriosa, aunque la causalidad tiene algo que ver con ella. Por ejemplo, las funciones de respuesta en el tiempo siempre tienen una extensión del tiempo complejo en el semiplano superior.

Pero más misteriosamente, hay cosas como la ecuación KdV, la primera ecuación que describe los solitones, cuya integrabilidad resultó estar estrechamente relacionada con las curvas elípticas. De modo que la integrabilidad parece no solo estar relacionada con la analiticidad, ¡sino incluso con la algebraicidad! Pero es una conexión bastante oculta, porque las soluciones de KdV en sí mismas son trascendentales. De todos modos, recomiendo el libro que vinculé. Está escrito para estudiantes universitarios y es muy divertido.

Si conocemos el valor de $ f $ a $ t $y queremos conocer el valor de $ f (t + Delta t) $ Para pequeños $ Delta t $, entonces lo más básico es asumir que $ f (t + Delta t) = f

En su lugar, podríamos calcular una aproximación de primer orden de la derivada y usarla para aproximar la función. Esta sería una aproximación de segundo orden de la función. Tenemos $ f ‘(t + Delta t) = f’

Entonces, ¿es válido? Bueno, si tenemos un límite en la enésima derivada de $ f $ durante el intervalo, entonces podemos usar eso para poner un límite en la derivada (n-1) ésima, que luego puede dar un límite en la (n-2) ésima, y ​​así. Así que incluso sin conocer el $ f $ es analítico, tener un límite en la n-ésima derivada da un límite en el error para la aproximación de n-ésimo orden.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)


Tags :

Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *