APLICACIONES





EXTREMOS DE FUNCIONES DE VARIAS VARIABLES


En éste tema se estudiará la teoría de máximos y mínimos relativos, (o locales), de funciones de varias variables independientes o bien relacionadas entre sí mediante ciertas condiciones adicionales, que al igual que para funciones de una variable independiente constituye una importante aplicación del cálculo diferencial, y en particular de la fórmula de Taylor. Veamos, entonces, los extremos libres en primer término.

Los máximos y mínimos locales se denominan extremos relativos o locales. La palabra “relativo” (“local”) indica que se compara el valor de la función en el punto X = a con los valores que ella toma en una vecindad de dicho punto solamente.                 Así, una función con máximos y mínimos locales puede tomar valores mayores que sus máximos locales y menores que sus mínimos locales. Además, notemos también que una función y = f(X) puede tener varios máximos y mínimos locales, iguales o no entre sí. Estas  últimas observaciones, para el caso de funciones de una variable, se justifican al considerar la siguiente figura




MULTIPLICADORES DE LAGRANGE

En los problemas de optimización, el método de los multiplicadores de Lagrange, llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de varias variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene un extremo condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.
La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientesde la función sean iguales a cero.

Consideremos un caso bidimensional. Supongamos que tenemos la función, f (x, y), y queremos maximizarla, estando sujeta a la condición:
donde c es una constante. Podemos visualizar las curvas de nivel de f dadas por
para varios valores de dn, y el contorno de g dado por g(xy) = c. Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en general, las curvas de nivel de f y g serán distintas, y la curva g = c por lo general intersecará y cruzará muchos contornos de f. En general, moviéndose a través de la línea g=c podemos incrementar o disminuir el valor de f. Sólo cuando g=c (el contorno que estamos siguiendo) toca tangencialmente (no corta) una curva de nivel de f, no se incrementa o disminuye el valor de f. Esto ocurre en el extremo local restringido y en los puntos de inflexión restringidos de f.
Un ejemplo familiar puede ser obtenido de los mapas climatológicos, con sus curvas de nivel de presión y temperatura (isóbaras e isotermas respectivamente): el extremo restringido ocurrirá donde los mapas superpuestos muestren curvas que se tocan.
Geométricamente traducimos la condición de tangencia diciendo que los gradientes de f y g son vectores paralelos en el máximo. Introduciendo un nuevo escalar, λ, resolvemos
[f(xy) - λ (g(xy) − c)] = 0
para λ ≠ 0.
Una vez determinados los valores de λ, volvemos al número original de variables y así continuamos encontrando el extremo de la nueva ecuación no restringida.
de forma tradicional. Eso es, para todo (xy) satisfaciendo la condición porque es igual a cero en la restricción, pero los ceros de F(xy) están todos en .





LECTURAS

No hay comentarios:

Publicar un comentario