Saltar al contenido

¿Diferencia entre el cálculo de una variable y el cálculo de múltiples variables?

Mantén la atención porque en este enunciado vas a encontrar el arreglo que buscas.

Solución:

Esencialmente no hay diferencia en el concepto de la derivada. Sigue siendo la mejor aproximación lineal a su función en cada punto. Es decir, $f$ diferenciable en $x_0$ todavía significa que $$ f(x_0+h) = f(x_0) + f'(x_0)h + varphi(h), $$ para $h$ en algún nbhd. de $0$ y $varphi$ una función continua que tiende a $0$ a $0$ más rápido que lineal. Excepto que ahora $f'(x_0)$ es una matriz $m times n$ llamada matriz jacobiana y mucho más complicada de trabajar.

Lo primero que obtenemos cuando pasamos a dimensiones superiores es la noción de derivada direccional, es decir, “¿cuánto cambia $f$ en la dirección de $v$?” De hecho, ya tenemos eso en $mathbbR$, es solo que solo hay una dirección (en realidad, dos, pero se reduce a un cambio de signo), por lo que nunca se ve de esa manera. La noción de derivada direccional es exactamente lo que desea cuando desea generalizar aún más para suavizar variedades, excepto que debe ser un poco inteligente ya que no tiene un espacio ambiental en el que tener vectores tangentes y en su lugar usar derivaciones (de, por ejemplo, funciones suaves).

Las integrales en múltiples variables son mucho más complicadas que la integral de Riemann habitual. Incluso cuando las funciones son continuas. Como lo demuestra el teorema de Fubini.

Relacionado con el cálculo tangencialmente (realmente es más análisis, pero esos están relacionados de todos modos): el hecho de que $mathbbR$ tenga un orden permite definir cosas como la integral de Henstock-Kurzweil. Tal extensión de la integral de Lebesgue (AFAIK) no es posible en $mathbbR^n$ para $n > 1$.

Me parece que una diferencia importante es que mientras en el cálculo de una variable solo se trabaja con una derivada, en el cálculo de múltiples variables hay infinitas derivadas, las derivadas direccionales, un caso particular de las cuales son las derivadas parciales. Todavía existen las derivadas totales para funciones cuyas variables dependen de otra variable. Aunque todas estas derivadas son una generalización de la derivada de una función de una sola variable.

La topología de $R^n$ es mucho más complicada que la topología de $R$. Por ejemplo, un subconjunto simplemente conexo de $R$ es solo un intervalo. Un subconjunto simplemente conexo en $R^n$ puede ser muy complicado. Esto es importante porque la conectividad simple entra como hipótesis en varios teoremas.

El límite de un intervalo en $R$ es simplemente un par de puntos (o 1 o 0 puntos si el intervalo no está acotado). Pero el límite de un conjunto abierto en $R^n$ puede ser una variedad o algo más complicado. Dado que el teorema fundamental del cálculo requiere integrar sobre un límite, el teorema es más complicado en varias variables. La integración sobre el límite de un intervalo en $R$ es simplemente evaluar una función en dos puntos. La integración sobre una variedad es más sutil y requiere una gran cantidad de maquinaria para realizarla formalmente.

Te mostramos reseñas y valoraciones

Si te animas, tienes la libertad de dejar un tutorial acerca de qué te ha parecido esta sección.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *