Saltar al contenido

¿Cómo funcionan los multiplicadores de Lagrange para encontrar el valor más bajo de una función sujeta a una restricción?

Bienvenido a nuestra web, aquí hallarás la resolución a lo que estabas buscando.

Solución:

Este tipo de problema se conoce generalmente como optimización restringida. Una técnica general para resolver muchos de estos tipos de problemas se conoce como el método de los multiplicadores de Lagrange, aquí hay un ejemplo de un problema de este tipo utilizando multiplicadores de Lagrange y una breve justificación de por qué funciona la técnica.

Considere el parabaloide dado por $ f (x, y) = x ^ 2 + y ^ 2 $. El mínimo global de esta superficie se encuentra en el origen (en $ x = 0 $, $ y = 0 $). Si se nos da la restricción, un requisito en la relación entre $ x $ y $ y $, que $ 3x + y = 6 $, entonces el origen ya no puede ser nuestra solución (ya que $ 3 cdot 0 + 1 cdot 0 neq 6 $). Sin embargo, hay un punto más bajo en esta función que satisface la restricción dada.

Lo que tenemos hasta ahora:

Función objetivo: $ f (x, y) = x ^ 2 + y ^ 2 $,
sujeto a: $ 3x + y = 6 $.

De aquí podemos derivar la formulación de Lagrange de nuestro problema de minimización restringida. Esta será una función $ L $ de $ x $, $ y $, y un solo multiplicador de Lagrange $ lambda $ (ya que tenemos una sola restricción). Será esta nueva función la que minimicemos.

$ L (x, y, lambda) = x ^ 2 + y ^ 2 + lambda (3x + y-6) $

La formulación de Lagrange incorpora nuestra función original junto con nuestras restricciones. En el camino hacia la minimización de $ L $, tendremos que minimizar la función objetivo $ x ^ 2 + y ^ 2 $, así como minimizar la contribución de la restricción, que ahora está ponderada por un factor de $ lambda $. Si se cumple la restricción, entonces la expresión $ 3x + y-6 $ será necesariamente cero y no aportará nada con el valor de $ L $. Este es el truco de la técnica.

Minimizando la formulación de Lagrange:

Para minimizar $ L $ simplemente encontramos los valores $ x, y $ y $ lambda $ que hacen que su gradiente sea cero. (Esto es exactamente análogo a establecer la primera derivada en cero en cálculo).

$ nabla L = 0: $

$ frac parcial L parcial x = 2x + 3 lambda = 0 $

$ frac parcial L parcial y = 2y + lambda = 0 $

$ frac parcial L parcial lambda = 3x + y – 6 = 0 $,

En nuestro ejemplo hemos llegado a un sistema de ecuaciones lineales simultáneas que pueden (y deben) resolverse con álgebra matricial. La solución será un vector que contenga valores para $ x, y $ y $ lambda $. El valor más bajo de la función objetivo, sujeto a la restricción dada, se encuentra en $ (x, y, f (x, y)) $, y el multiplicador de Lagrange no tiene una interpretación física inmediata. (Los multiplicadores tienen significado cuando aparecen en ciertos contextos, más información al respecto aquí).

Esto se basa en la respuesta del Sr. Bulatov (nota: el vínculo del Sr. Bulatov está roto, pero infiero que se supone que está vinculado a las notas de Dan Klein Multiplicadores de Lagrange sin cicatrices permanentes, que de hecho son excelentes).

De todos modos, en aras de la simplicidad, trabajemos con funciones en dos variables, es decir, queremos encontrar puntos críticos de $ f (x, y) $ donde la restricción es $ g (x, y) = c $.

Toma cualquier punto $ (a, b) $ en el $ xy $-plano tal que $ g (a, b) = c $. Suponga que hay un vector (unitario) $ vec v $ tangente a $ g $ a $ (a, b) $ cuyo producto escalar con el vector degradado de $ f $ a $ (a, b) $ era distinto de cero. Podemos tomar $ vec v $ tal que el producto escalar con $ vec v $ es positivo ya que $ nabla f (a, b) cdot vec v = – ( nabla f (a, b) cdot – vec v) $.

Ahora, lo que esto significa es que la derivada parcial de $ f $ con respecto a $ vec v quad $ es positivo y apunta a lo largo de $ vec v quad $ lo suficientemente cerca para $ (a, b) $ tener mayor $ f $-valor. Yo (y el Sr. Bulatov) afirmamos que esto significa que hay puntos en $ g (x, y) = c $ cerca de $ (a, b) $ con mayor $ f $-valor, lo que significa que $ f $ no es un máximo. El Sr. Bulatov expresa bien el argumento en términos de infinitesimales, pero creo que un poco más de rigor es esclarecedor.

Considere una secuencia de puntos $ (a_i, b_i) $ sobre $ g (x, y) = c $ que convergen a $ (a, b) $. Cada punto $ (a_i, b_i) $ viene con un vector unitario $ vec u_i $ que corresponde a la dirección (es un múltiplo escalar de) $ (a, b) – (a_i, b_i) $. Porque $ vec v $ es un vector tangente, podemos elegir el $ (a_i, b_i) $ tal que el $ vec u_i $ converger a $ vec v $ . Pero porque $ f $ es diferenciable en más de una variable, sus derivadas parciales son continuas, por lo que tenemos que las derivadas parciales $ nabla f (a, b) cdot vec u_i $ converger a $ nabla f (a, b) cdot vec v $, y así para todo lo suficientemente grande i la derivada parcial en el $ u_i $ la dirección es positiva y entonces $ f (a_i, b_i)> f (a, b) $.

Por tanto, si $ f (a, b) $ era un máximo (o un mínimo) de $ f $ sobre $ g (x, y) = c $, vector degradado de $ f $ a $ (a, b) $ tendría un producto escalar cero con cada vector en la línea tangente a $ g $ a $ (a, b) $. Pero eso significa que el vector de gradiente de $ f $ es ortogonal a la recta tangente de $ g $, lo que significa que el gradiente de $ f $ debe ser paralelo (es decir, un múltiplo escalar de) el gradiente de $ g $.

De aquí obtenemos las ecuaciones $ nabla f (x, y) = lambda nabla g (x, y) $ y $ g (x, y) = c $, que se satisfacen si y solo si $ (x, y) $ es un mínimo de $ f (x, y) + lambda (g (x, y) -c) $ por positivo $ lambda $ y un máximo para negativo $ lambda $.

Probablemente ya lo hayas descubierto, pero para la posteridad, este documento da una intuición que no vi en el libro de Boyd, esp. Figura 3 en la página 3.

Para resolver un problema con restricción de igualdad, busque puntos donde el gradiente del objetivo esté en la misma dirección que el gradiente de la función de restricción. ¿Por qué esos puntos? Bueno, supongamos que tenemos un punto factible que es un máximo de objetivo y los gradientes de las funciones de objetivo / restricción no son colineales. Luego, puede dar un paso infinitesimal en la dirección ortogonal al gradiente de la función de restricción para aumentar el objetivo. Y debido a que se está moviendo en la dirección ortogonal al gradiente de la función de restricción, su restricción aún se cumple. Por lo tanto, obtiene un punto factible con un valor objetivo más grande, la contradicción.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *