EXTREMOS DE FUNCIONES DE VARIAS VARIABLES
En
éste tema se estudiará la teoría de máximos y mínimos relativos, (o locales),
de funciones de varias variables independientes o bien relacionadas entre sí
mediante ciertas condiciones adicionales, que al igual que para funciones de
una variable independiente constituye una importante aplicación del cálculo
diferencial, y en particular de la fórmula de Taylor. Veamos, entonces, los
extremos libres en primer término.
Los
máximos y mínimos locales se denominan extremos relativos o locales. La
palabra “relativo” (“local”) indica que se compara el valor de la función en el
punto X = a con los valores que ella toma en una vecindad de
dicho punto solamente.
Así, una función con máximos y mínimos locales puede tomar valores mayores
que sus máximos locales y menores que sus mínimos locales. Además,
notemos también que una función y = f(X) puede tener varios máximos y
mínimos locales, iguales o no entre sí. Estas últimas observaciones, para
el caso de funciones de una variable, se justifican al considerar la siguiente
figura
MULTIPLICADORES DE
LAGRANGE
En los problemas
de optimización, el método de los multiplicadores de Lagrange,
llamados así en honor a Joseph Louis Lagrange, es un procedimiento para
encontrar los máximos y mínimos de funciones de varias variables sujetas a
restricciones. Este método reduce el problema restringido con n variables
a uno sin restricciones de n + k variables, donde k es
igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más
fácilmente. Estas nuevas variables escalares desconocidas, una para cada
restricción, son llamadas multiplicadores de Lagrange. El método dice que los
puntos donde la función tiene un extremo condicionado con k restricciones,
están entre los puntos estacionarios de una nueva función sin restricciones
construida como una combinación lineal de la función y las funciones
implicadas en las restricciones, cuyos coeficientes son los multiplicadores.
La demostración
usa derivadas parciales y la regla de la cadena para
funciones de varias variables. Se trata de extraer una función implícita de las
restricciones, y encontrar las condiciones para que las derivadas parciales con
respecto a las variables independientesde la función sean iguales a cero.
Consideremos un caso
bidimensional. Supongamos que tenemos la función, f (x, y),
y queremos maximizarla, estando sujeta a la condición:
donde c es
una constante. Podemos visualizar las curvas de nivel de f dadas
por
para
varios valores de dn, y el contorno de g dado
por g(x, y) = c. Supongamos que
hablamos de la curva de nivel donde g = c.
Entonces, en general, las curvas de nivel de f y g serán
distintas, y la curva g = c por lo general
intersecará y cruzará muchos contornos de f. En general, moviéndose
a través de la línea g=c podemos incrementar o
disminuir el valor de f. Sólo cuando g=c (el
contorno que estamos siguiendo) toca tangencialmente (no corta) una curva de
nivel de f, no se incrementa o disminuye el valor de f.
Esto ocurre en el extremo local restringido y en los puntos de
inflexión restringidos de f.
Un
ejemplo familiar puede ser obtenido de los mapas climatológicos, con sus curvas
de nivel de presión y temperatura (isóbaras e isotermas respectivamente): el extremo
restringido ocurrirá donde los mapas superpuestos muestren curvas que se tocan.
Geométricamente
traducimos la condición de tangencia diciendo que los gradientes de f y g son
vectores paralelos en el máximo. Introduciendo un nuevo escalar, λ, resolvemos
[f(x, y)
- λ (g(x, y) − c)] = 0
para
λ ≠ 0.
Una
vez determinados los valores de λ, volvemos al número original de variables y
así continuamos encontrando el extremo de la nueva ecuación no restringida.
de
forma tradicional. Eso es, para
todo (x, y) satisfaciendo la condición porque es
igual a cero en la restricción, pero los ceros de F(x, y)
están todos en .
LECTURAS
No hay comentarios:
Publicar un comentario