Saltar al contenido

Ecuaciones diferenciales: ¿cómo funciona realmente la separación de variables?

Solución:

Este texto se ha copiado de http://kevinboone.net/separation_variables.html

He editado las ecuaciones solo para que se puedan leer fácilmente, pero no quiero atribuirme ningún crédito por el texto original.

Los derechos de autor se mantienen como se indica en el sitio web: Copyright © 1994-2013 Kevin Boone. Actualizado el 02 de octubre de 2013 © 1994-2013 No he pedido permiso al titular de los derechos de autor.

Ecuaciones diferenciales: ¿cómo funciona realmente la separación de variables?

Una de las formas más sencillas de resolver ecuaciones diferenciales es aquella en la que las variables se pueden separar a ambos lados de la igualdad. Estas ecuaciones ocurren con frecuencia en la ciencia y la ingeniería y, por lo general, son los primeros problemas de este tipo que se enseñan a los estudiantes.

Algunas de las operaciones que los libros de texto y las clases enseñan a los estudiantes, como parte del proceso de resolución de ecuaciones de variables separables, parecen ser matemáticamente muy dudosas. Por lo general, se enseña a los estudiantes a tratar el operador diferencial $ frac {dy} {dx} $ como si fuera una razón simple de dos cantidades, cuyos términos individuales se pueden multiplicar y dividir independientemente. Sin embargo, $ frac {dy} {dx} $ no es una razón y no está claro por qué funcionan estos procedimientos. Peor aún, no está claro si siempre es seguro tratar al operador diferencial de una manera tan arrogante, o si solo es seguro para clases particulares de problemas.

Esta situación me irritó cuando me enseñaron cálculo por primera vez hace más de treinta años, y me sigue irritando hasta el día de hoy.

En este artículo intentaré describir cómo podemos lidiar con la separación de variables sin jugar rápido y suelto con los diferenciales. Al hacerlo, espero brindar una idea de lo que sucede detrás de escena cuando seguimos el método que generalmente se enseña. Los argumentos de este artículo se aplican también a otros procedimientos de cálculo que parecen basarse en el tratamiento de un operador diferencial como una razón, como la integración por sustitución de U.

Comenzaré describiendo el procedimiento habitual de los libros de texto para resolver una ecuación diferencial simple con variables separables, y explicaré qué tiene de malo y cómo se puede corregir.

Quiero señalar desde el principio que este artículo trata realmente de la filosofía de las matemáticas. Puede seguir el método del libro de texto y obtener la respuesta correcta sin comprender nada de esto.

El enfoque de libro de texto

Considere la siguiente ecuación diferencial simple para xey $$ frac {dy} {dx} = frac {x ^ 2} {1-y ^ 2} $$ Nuestro trabajo es encontrar una relación entre $ x $ y $ y $ que no contiene un término derivado, es decir, para resolver $ y $ en términos de $ x $.

El enfoque habitual de los libros de texto para resolver una ecuación de este tipo es separar las variables, colocando todos los términos $ x $ en un lado y los términos $ y $ en el otro. Los términos $ x $ deben incluir $ dx $ y los términos $ y $ $ dy $. Podemos multiplicar ambos lados por $ dx $ y por $ 1-y ^ 2 $, y esto nos da: $$ (1 – y ^ 2) dy = x ^ 2 dx $$ Pero, ¿qué significa ‘multiplicar por $ dx $? ‘ $ dx $ no es una cantidad, es un componente del operador $ frac {d} {dx}[f(x)]PS Si bien es cierto que los términos ‘$ d $’ representan, en algunos sentidos, valores pequeños (‘infinitesimales’, en la formulación de Leibnitz), el operador en sí es una expresión de límite (tal vez; vea las observaciones finales para la discusión): denota el valor límite de un infinitesimal cuando el otro se acerca a cero. Los componentes de $ frac {dy} {dx} $ tienen poca importancia por sí mismos, y ciertamente no forman una razón aritmética.

Dejando ese problema a un lado por ahora, el procedimiento del libro de texto ahora normalmente nos pide que escribamos un signo de integración delante de cada lado (lo que sea que eso signifique), para crear un par de integrales:

$$ int (1 – y ^ 2 dy = int x ^ 2 dx $$ Ahora tenemos algo que está matemáticamente bien formado, pero lo conseguimos mediante un proceso peculiar. Como el operador diferencial, el indefinido El operador integral $ int dx $ es algo significativo en una forma particular; el ∫ no tiene mucho significado por sí solo.

Sea como fuere, la integración de ambos lados con respecto a sus variables independientes da:

$$ y – frac {y ^ 3} {3} = frac {x ^ 2} {3} + C $$

Con un poco de limpieza:

$$ 3 y – y ^ 3 = x ^ 2 + C $$ Esta es una ecuación cúbica en y, y no es fácil hacer malabares con una relación directa de la forma $ y = f (x) $. Aún así, tenemos una solución (o, más bien, una familia de soluciones) a la ecuación diferencial original; el cálculo está hecho y el resto es álgebra.

¿Entonces, cuál es el problema?

La mayoría de los libros de texto y las clases pasan por alto el hecho de que $ frac {dy} {dx} $ no es una razón de dos cantidades y tratan los términos individuales como si pudieran multiplicarse, dividirse y cancelarse a voluntad. Algunos autores al menos señalan el problema, pero por lo general dicen que “$ frac {dy} {dx} $ no es una proporción, pero en ocasiones puede ser útil tratarlo como si lo fuera”. Nunca está muy claro cuáles son estas ocasiones. A veces se encontrará con afirmaciones como “Este procedimiento está justificado por la regla de la cadena” o “Este procedimiento está justificado por el Teorema fundamental del cálculo”. Quizás eso sea cierto, pero ¿cómo se justifica? A veces, verá expresiones en $ dx $ o $ dy $ explicadas con expresiones que se mueven con la mano como “forma formal” o “forma infinitesimal”. Pero, ¿qué significan realmente esos términos? Al dejar estas preguntas sin respuesta, los estudiantes no tienen forma de averiguar si el enfoque que se explica es aplicable en general o funciona solo para una clase limitada de problemas.

Otro intento

Veamos si no podemos mejorar la formulación del procedimiento de separación de variables y evitar algunos de estos desagradables errores matemáticos. Comenzando con la ecuación diferencial original:

$$ frac {dy} {dx} = frac {x ^ 2} {1-y ^ 2} $$

Podemos reorganizar para dar:

$$ (1-y ^ 2) frac {dy} {dx} = x ^ 2 $$

Hacer esto mantiene $ frac {dy} {dx} $ intacto, por ahora.

Ahora tomemos la integral indefinida de cada lado con respecto a $ x $. Esto es algo legítimo, ya que estamos usando la misma variable independiente en las dos integrales, aunque el LHS es una función de $ y $ así como de $ x $:

$$ int (1-y ^ 2) frac {dy} {dx} dx = int x ^ 2 dx $$

Desde aquí, podríamos “cancelar” los términos de $ dx $ para salir:

$$ int (1-y ^ 2) {dy} = int x ^ 2 dx $$

y esta es la misma forma separada a la que llegamos antes.

Pero, ¿qué significa “cancelar” los términos $ dx $? ¿Hacer esto es mejor que manipular $ dy $ y $ dx $ de forma independiente? En realidad no, todo lo que hemos hecho es posponer la aplicación de un kludge; todavía tendremos que tratar $ frac {dy} {dx} $ como una proporción; lo haremos un poco más tarde. El $ dx $ en el operador de integración no es la misma cantidad que el $ dx $ en el operador de diferenciación, si es que es incluso una cantidad.

Dada la falta de rigor matemático, puede ser algo sorprendente que estos procedimientos realmente funcionen; al menos en este tipo particular de problema, manipular $ dy $ y $ dx $ de forma independiente permite llegar a la solución correcta.

¿Pero cómo?

“Cancelar $ dx $” como atajo para aplicar la regla de la cadena

Para averiguar qué está sucediendo aquí, debemos pensar en lo que realmente significa una integral indefinida. En esencia, cuando buscamos evaluar

$$ int (1-y ^ 2) frac {dy} {dx} dx $$

lo que realmente estamos preguntando es “¿Qué se puede diferenciar con respecto a $ x $, para dar $ (1-y ^ 2) frac {dy} {dx} $?

Es una pregunta extraña, a primera vista, porque no estamos particularmente acostumbrados a ver los resultados de una diferenciación que tiene términos diferenciales. Ciertamente no hay problema para encontrar algo que se diferencie en $ 1-y ^ 2 $: la integración sencilla nos da $ y- frac {y ^ 3} 3 + C $, para cualquier $ C $ constante. Sabiendo esto, es posible encontrar intuitivamente una expresión que se diferencie en $ (1-y ^ 2) frac {dy} {dx} $. Tal expresión es $ y- frac {y ^ 3} 3 $, donde $ y $ es una función de $ x $, y diferenciamos en términos de $ x $, no $ y $. Para realizar esta diferenciación necesitamos la regla de la cadena:

$$ frac {du} {dx} = frac {du} {dy} frac {dy} {dx} $$

Si tomamos $ u = y- frac {y ^ 3} 3 $, donde $ u $ es una función de $ x $, entonces su derivada con respecto a $ x $ es:

$$ frac d {dx} [y-frac{y^3}3] = frac d {dy} [ y-frac{y^3}3] . frac {dy} {dx} = (1 – y ^ 2). frac {dy} {dx} $$

En otras palabras, el LHS de

$$ int (1-y ^ 2) {dy} = int x ^ 2 dx $$

se puede reemplazar para dar:

$$ (y- frac {y ^ 3} 3) {dy} = int x ^ 2 dx $$

Aquí es exactamente donde llegamos al “cancelar” los términos $ dx $ y realizar la integración del LHS con respecto a $ y $, como se explicó anteriormente. Entonces podríamos proceder integrando directamente el RHS.

El razonamiento anterior muestra que la “cancelación” de los términos $ dx $ estaba justificada, en el sentido de que hacerlo conducía a la misma respuesta que podría obtenerse al encontrar intuitivamente una expresión que pudiera diferenciarse para dar el integrando en cuestión. En la práctica, sin embargo, necesitamos algo más general, algo que justifique la operación utilizada y que pueda aplicarse de forma rutinaria en problemas de este tipo. Para eso, debemos demostrar con un rigor razonable que

$$ int f (y) frac {dy} {dx} dx = int f (y) dy $$

Es decir, tenemos que demostrar que “cancelar los términos $ dx $” es matemáticamente válido.

Para hacer eso, comenzaremos con la regla de la cadena nuevamente:

$$ frac {du} {dx} = frac {du} {dy} frac {dy} {dx} $$

Entonces sea $ u = int f (y) dy $

Sustituyendo en la regla de la cadena:

$$ frac {d} {dx} left ( int f (y) dy right) = frac {d} {dy} left ( int f (y) dy right) frac {dy} {dx} $$

El primer término en el RHS es simplemente una diferenciación de una integración con respecto a la misma variable, $ y $, por lo que la ecuación se reduce a:

$$ frac {d} {dx} left ( int f (y) dy right) = f (y). frac {dy} {dx} $$

Ahora, si integramos ambos lados con respecto a $ x $, obtenemos

$$ int left[ frac{d}{dx}left(int f(y) dyright)right]dy = int left[ f(y) frac{dy}{dx} right ] dx $$

Como el RHS es solo la integral de una derivada con respecto a la misma variable, la ecuación se reduce a:

$$ int f (y) dy = int f (y) frac {dy} {dx} dx $$

que es lo que nos propusimos demostrar. Entonces, ¿a dónde nos lleva todo eso? En resumen, cuando dividimos $ frac {dy} {dx} $ en términos separados y manipulamos esos términos por separado, lo que realmente estamos haciendo es integrar ambos lados de la ecuación con respecto a la misma variable y luego aplicar el regla de la cadena para eliminar el término diferencial del integrando. Tratar $ dx $ y $ dy $ como elementos de una razón es descuidado, pero es matemáticamente correcto hacerlo en los casos en que la regla de la cadena sería capaz de producir los integrandos en cuestión. Y, por supuesto, es mucho más conveniente que aplicar la regla de la cadena de forma explícita cada vez.

Palabras de clausura

El significado de $ frac {dy} {dx} $ es en sí mismo problemático. Tradicionalmente se ha visto como un operador, derivado de considerar cambios infinitesimales en una variable con respecto a otra. Sin embargo, esta formulación no está exenta de problemas; el más destacado es que no hay un número real “infinitesimalmente pequeño”. El conjunto de números reales es, por definición, infinitamente subdividible en conjuntos más pequeños. Hasta cierto punto, los problemas para comprender lo que significaba ‘infinitesimal’ en el contexto de los números reales llevaron a que las derivadas se trataran como expresiones limitantes, en lugar de proporciones de infinitesimales. Sin embargo, hay otras formas de entender un derivado, incluida la rigurosa definición de infinitesimales de Abraham Robinson en términos de campos hiperrealistas. Algunas de estas formulaciones pueden permitir que $ dy $ y $ dx $ se traten de forma independiente en algunas circunstancias.

Sin embargo, me parece que es más probable que los estudiantes comprendan la metodología de separación de variables e integración por sustitución como un atajo para la aplicación de la regla de la cadena, que una discusión altamente técnica sobre el significado de un diferencial. .

A mi modo de ver, el procedimiento se puede describir mediante los siguientes pasos $$ frac {dy} {dx} = frac {g (x)} {h (y)} tag1 $$ multiplicando $ h (y) $ y $ dx $ en ambos lados como si ambos fueran expresiones regulares de valor real $$ h (y) dy = g (x) dx tag2 $$ aplicando integración en ambos lados para tener $$ int h (y) dy = int g (x) dx tag3 $$ y usando antiderivadas para llegar a $$ H (y) = G (x) + c tag4 $$ y, con suerte, $ H $ es inyectivo para que podamos resolver $ y $ $$ y = H ^ {- 1} left (G (x) + c right) tag5 $$ que puede estar sujeto a diferentes restricciones en su dominio según los detalles de los pasos anteriores.


El problema es, por supuesto, que $ dx $ y $ dy $ no se han definido como expresiones independientes de valor real. Por lo tanto, el paso $ (2) $ anterior puede contener una expresión sin sentido indefinida.

Por definición $ frac {dy} {dx} = y ‘(x) $, pero aparte de eso, sabemos poco acerca de $ dx $ y $ dy $. En un contexto histórico, Leibniz y sus seguidores los usaron y les asignaron significado individualmente, pero una lucha sobre su significado real y los fundamentos del cálculo continuó durante siglos después de eso.


Una forma de resolver esto es reemplazar $ dx $ y $ dy $ por $ x ‘$ y $ y’ $ definidos como $ x ‘= 1 $ y $ y’ = y ‘(x) $. Entonces tenemos $$ frac {dy} {dx} = frac {y ‘} {x’} $$ donde el lado derecho es ahora una fracción entre las expresiones reales con valor real. Por lo tanto, los primeros pasos se pueden escribir como $$ frac {y ‘} {x’} = frac {g (x)} {h (y)} tag1 $$ y multiplicar por $ h (y) $ y $ x ‘$ en ambos lados obtenemos $$ h (y) y’ = g (x) x ‘ tag2 $$ que ahora es significativo y conduce al paso intermedio $$ int h (y) y’ dx = int g (x) x’dx tag {2.5} $$ y aplicando la sustitución $ u = y $ en el LHS y observando que $ g (x) x ‘= g (x) $ ya que $ x’ = 1 $ en el RHS esto conduce al mismo paso $ (3) $ que la versión original, a saber, $$ int h (y) dy = int g (x) dx tag3 $$ Entonces, en comparación, el método original es un acceso directo al mismo paso $ (3) $ exacto que esta versión más rigurosa y detallada.


Todo depende de que el método de sustitución sea correcto, a saber, $$ int h (y) y’dx = int h (y) dy $$ Lo anterior, por supuesto, es correcto, ya que el RHS se evalúa como $ H (y) + c $ que tiene la derivada $ h (y) y ‘$ (por la regla de la cadena) por lo que ambos lados son de hecho antiderivadas del mismo integrando, lo que prueba que el método de sustitución es válido.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *