SlideShare une entreprise Scribd logo
1  sur  43
Télécharger pour lire hors ligne
UNIVERSIDAD NACIONAL DE INGENIER´IA
FACULTAD DE CIENCIAS
ESCUELA PROFESIONAL DE MATEM´ATICA
PROGRAMACI´ON GEOM´ETRICA
por
Naupay Gusukuma, Alvaro Miguel
Pr´acticas
Pre Profesionales
en MATEM´ATICA
Mg. Echegaray Castillo, William Carlos
Asesor
Uni, 29 de Diciembre de 2014
´Indice general
1. Antecedentes hist´oricos 3
2. Programaci´on geom´etrica sin restricciones 5
2.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2. Primeros ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3. Programaci´on geom´etrica sin restricciones. . . . . . . . . . . . . . . . . . . 16
2.4. Ejemplos sin restricciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3. Progamaci´on geom´etrica con restricciones 26
3.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2. Ejemplo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3. Programaci´on geom´etrica con restricciones. . . . . . . . . . . . . . . . . . . 33
Bibliograf´ıa 41
1
Agradecimientos
Quiero agradecer a m´ıs padres por apoyarme constantemente y a mi asesor por su apoyo
incondicional que d´ıa a d´ıa me guia a ser un mejor profesional.
2
Cap´ıtulo 1
Antecedentes hist´oricos
A Clarence Zener, Director de Ciencias en Westinghouse Electric en Pittsburgh,
Pennsylvania, USA, se le acredita como el padre de la Programaci´on Geom´etrica. En 1961,
public´o un art´ıculo en el Proceedings del National Academy of Science sobre “A Mathema-
tical Aid in Optimizing Engineering Designs”, que es considerado como el primer art´ıculo
sobre programaci´on geom´etrica. Clarence Zener es mejor conocido en ingenier´ıa el´ectrica
por el diodo Zener. Que mas tarde se asocio con Richard J. Duffin y Elmor L. Peterson del
Carnegie Institute of Technology (ahora Carnegie-Mellon University, USA) para escribir el
primer libro sobre programaci´on geom´etrica, llamado “Geometric Programming” en 1967.
Un reporte fue publicado en Agosto de 1966 por el profesor Douglas Wilde y el estudiante
de graduaci´on Ury Passey. El profesor Douglas Wilde del Stanford University y el profe-
sor Charles Beightler del University of Texas incluyeron un cap´ıtulo sobre programaci´on
geom´etrica en el libro “Fundations of Optimization”.
Otros primeros libros por estos l´ıderes fueron “Engineering Design By Geometric Pro-
gramming” por Clarence Zener en 1971, “Applied Geometric Programming” por C.S.
Beightler y D.T. Phillips en 1976, y la segunda edici´on del “Foundations of Optimiza-
tion” por C.S. Beightler, D.T. Phillips y D.Wilde en 1979. Muchos de las aplicaciones
iniciales fueron en el ´area del dise˜no de tranformadores cuando Clarence Zener trabajaba
para Westinghouse Electric en el ´area de ingenier´ıa qu´ımica, que fu´e el ´area enfatizada
por Beightler y Wilde. Tambi´en es importante resaltar que muchos estudiantes de gra-
3
duaci´on jugaron un papel importante, a saber Elmor Peterson en el Carnegie Institute of
Technology y Ury Passy y Mordecai Avriel en el Stanford University.
4
Cap´ıtulo 2
Programaci´on geom´etrica sin
restricciones
El nombre de programaci´on geom´etrica (P.G.) se debe a que se utiliza la generaliza-
ci´on de la desigualdad media aritm´etica geom´etrica para resolver algunos problemas de
optimizaci´on.
2.1. Conocimientos previos.
Teorema 2.1.1. Sea f : C ⊂ Rn
→ R una funci´on convexa donde C es un conjunto
convexo. Si λ1, λ2, . . . , λk son n´umeros no negativos con suma igual a 1 y si x1, x2, . . . , xk
son puntos de C, entonces
f
k
i=1
λixi ≤
k
i=1
λif(xi) . (∗)
Si f es estrictamente convexa sobre C y si todos los λi’s son positivos, entonces la igualdad
en (∗) se cumple si y s´olo si todos los xi’s son iguales.
El nombre de Programaci´on Geom´etrica es debido a que esta t´ecnica utiliza variantes
de la desigualdad media aritm´etica geom´etrica. A continuaci´on presentamos una de ellas.
Teorema 2.1.2. (Desigualdad Media Aritm´etica-Geom´etrica o Desigualdad (A-
G)). Si x1, x2, . . . , xn son n´umeros reales positivos y si δ1, δ2, . . . , δn son n´umeros positivos
5
cuya suma es uno, entonces
n
i=1
(xi)δi
≤
n
i=1
δixi , (A-G)
con la igualdad en (A-G) si y s´olo si x1 = x2 = · · · = xn
El producto del lado izquierdo de A-G es llamada media geom´etrica de x1, x2, . . . , xn
con pesos δ1, δ2, . . . , δn mientras que la suma de la derecha de A-G es la media aritm´etica
de x1, x2, . . . , xn con pesos δ1, δ2, . . . , δn.
La desigualdad (A-G) se puede demostrar usando la convexidad en la siguiente manera.
Primero, observe que la funci´on f definida para x > 0 por
f(x) = − ln x
es estrictamente convexa ya que f′′
(x) =
1
x2
> 0. Consecuentemente, si x1, x2, . . . , xn y
δ1, δ2, . . . , δn son n´umeros positivos tales que
δ1 + δ2 + · · · + δn = 1
entonces (2.1.1) implica que
− ln
m
i=1
δixi = f
m
i=1
δixi ≤
n
i=1
δif(xi) = −
n
i=1
δi ln xi
con la igualdad si y s´olo si todos los xi’s son iguales. La anterior desigualdad es equivalente
a
ln
n
i=1
δixi ≥
n
i=1
ln(xδi
i ) = ln
n
i=1
xδi
i .
Consecuentemente, como la funci´on logar´ıtmo y exponencial son estrictamente creciente,
obtenemos
n
i=1
δixi ≥
n
i=1
(xi)δi
con la igualdad en esta desigualdad si y s´olo si todos los xi’s son iguales.
Como veremos, la desigualdad (A-G) es muy adecuada para la soluci´on de una clase
considerable de problemas de optimizaci´on no lineal. Antes de intentar identificar esta clase
de problemas y formalizar el procedimiento de optimizaci´on, daremos algunos ejemplos en
los que se aplica (A-G) para proporcionar la soluci´on algunos problemas est´andares de
m´aximos y m´ınimos del c´alculo.
6
2.2. Primeros ejemplos.
Ejemplo 2.2.1. Encontrar las dimensiones de una caja rectangular sin tapa con una ´area
fija de superficie S0 que tenga volumen m´aximo.
Soluci´on: Veamos la figura
x1
x2
x3
(x1, x2, x3)
Volumen = V = x1x2x3 .
´Area de superficie = S0 = x1x2 + 2x1x3 + 2x2x3 .
Por consiguiente, nuestro trabajo es resolver el siguiente problema:
Maximizar V (x1, x2, x3) = x1x2x3 ,
sujeto a x1x2 + 2x1x3 + 2x2x3 = S0 ,
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 .
En esta forma, al problema se le puede aplicar la desigualdad (A-G) de manera natural.
Observe que:
S0 = x1x2 + 2x1x3 + 2x2x3 = 3
x1x2 + 2x1x3 + 2x2x3
3
luego utilizando la desigualdad (A-G) tenemos
S0 = 3
x1x2 + 2x1x3 + 2x2x3
3
(A-G)
≥ 3((x1x2)1/3
(2x1x3)1/3
(2x2x3)1/3
)
= 3 · 41/3
(x2
1x2
2x2
3)1/3
= 3 · 41/3
V 2/3
Notemos que el valor de V est´a acotado y que esta cota (M´axima) es alcanzada cuando
hay igualdad en la desigualdad (A-G), esto es, supongamos que V es maximizado cuando
7
x1 = x∗
1, x2 = x∗
2 y x3 = x∗
3, de esto tendriamos que se debe cumplir y teniendo encuenta
el teorema 2.1.2
x∗
1x∗
2 = 2x∗
1x∗
3 = 2x∗
2x∗
3 =
S0
3
resolviendo esto tenemos que las dimensiones son
x∗
1 = x∗
2 =
S0
3
, x∗
3 =
1
2
S0
3
,
y adem´as el volumen m´aximo de la caja ser´a
V0 = x∗
1x∗
2x∗
3 =
S
3/2
0
2 · 33/2
.
Ejemplo 2.2.2. Encontrar las dimensiones de una caja rectangular sin tapa con volumen
fijo V0 que tiene la minima ´area de superficie.
Soluci´on: Apoy´andonos en la figura del ejemplo anterior vemos que necesitamos resolver
el siguiente problema.
Minimizar S(x1, x2, x3) = x1x2 + 2x1x3 + 2x2x3 ,
sujeto a x1x2x3 = V0 ,
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 .
procediendo exactamente como en el ejemplo anterior, obtenemos
S = x1x2 + 2x1x3 + 2x2x3 = 3
x1x2 + 2x1x3 + 2x2x3
3
(A-G)
≥ 3 · 41/3
V
2/3
0 .
Por consiguiente, el valor de S es el menor cuando hay igualdad en la desigualdad (A-G),
esto es, S es minimizado cuando x1 = x∗
1, x2 = x∗
2 y x3 = x∗
3 de donde tenemos que (ver
teorema 2.1.2)
x∗
1x∗
2 = 2x∗
1x∗
3 = 2x∗
2x∗
3 =
3 · 41/3
V
2/3
0
3
= 41/3
V
2/3
0 .
Resolviendo esto tenemos que las dimensiones son
x∗
1 = x∗
2 = 41/6
V
1/3
0 , x∗
3 =
41/6
V
1/3
0
2
,
8
adem´as el ´area m´ınima de la superficie es
S0 = x∗
1x∗
2 + 2x∗
1x∗
3 + 2x∗
2x∗
3 = 3 · 4/3
V
2/3
0 .
Ejemplo 2.2.3. Maximizar el volumen de una lata cil´ındrica de costo fijo c0 soles si el
costo del material, parte superior e inferior de la lata es c1 soles por metro cuadrado y el
costo del material, la parte lateral de la lata es de c2 soles por metro cuadrado.
Soluci´on: Si r es el radio y h es la altura de la lata en metros cuadrados, entocnes el
volumen de la lata es
r
h V (r, h) = πr2
h
y el costo de la lata es
c0 = 2πr2
c1 + 2πrhc2 .
Entonces vemos que necesitamos resolver el siguiente problema
Maximizar V (r, h) = πr2
h ,
sujeto a 2πr2
c1 + 2πrhc2 = c0 .
Ahora podemos proceder como en el ejemplo 2.2.1 , obtendremos
c0 = 2πr2
c1 + 2πrhc2 = 4
πr2
c1
2
+
πrhc2
2
(A-G)
≥ 4(πr2
c1)1/2
(πrhc2)1/2
= 4πr3/2
h1/2
(c1c2)1/2
.
9
Desafortunadamente, a diferencia de la situaci´on en el ejemplo 2.2.1, el t´ermino en el lado
derecho de la desigualdad resultante no se reduce a un m´ultiplo constante de una potencia
del volumen V, por lo que no se puede proceder como en el ejemplo 2.2.1. Lo que tenemos
que hacer es “dividir” c0 en una suma de t´erminos de tal manera que la aplicaci´on de
la desigualdad (A-G) produzca un m´ultiplo constante de una potencia de V en el lado
derecho. Un poco de experimentaci´on mostrar que tal separaci´on puede llevarse a cabo
como sigue:
c0 = 2πr2
c1 + πrhc2 + πrhc2 = 3
2πr2
c1 + πrhc2 + πrhc2
3
(A-G)
≥ 3(2πr2
c1)1/3
(πrhc2)1/3
(πrhc2)1/3
= 3(2π)1/3
(c1c2
2)1/3
V 2/3
.
Ahora podemos ver que V es el mayor cuando hay igualdad en esta (A-G) desigualdad,
esto es, cuando
2πr2
c1 = πrhc2 = πrhc2 =
c0
3
,
resolviendo tenemos que
r =
c0
6πc1
, h =
c0
3πc2
6πc1
c0
,
luego el volumen m´aximo ser´a
Vm´ax =
√
6
18π1/2
×
c
3/2
0
c
1/2
1 c2
.
Sin embargo, queremos se˜nalar un interesante an´alisis de los costos relacionados con nuestra
soluci´on del problema: Independientemente de los valores de c1 y c2, el ´optimo de las
dimensiones de la lata, asignar 1
3
del coste total a la parte superior e inferior y 2
3
del coste
total a la parte lateral.
Ejemplo 2.2.4. Minimizar el costo de una lata cil´ındrica de volumen V0 fijo si el costo de
la parte superior e inferior de la lata es c1 soles por metro cuadrado y el costo de la parte
lateral de la lata es c2 soles por metro cuadrado.
10
Soluci´on: Si r y h denotan el radio y la altura de la lata, entonces nuestro problema puede
ser formulado como sigue:
Minimizar c(r, h) = 2πr2
c1 + 2πrhc2 ,
sujeto a πr2
h = V0 .
r ≥ 0, h ≥ 0
La misma “divisi´on” de la funci´on de costo que usamos en el ejemplo anterior, en combi-
naci´on con la desigualdad (A-G), nos da
c(r, h) = 2πr2
c1 + πrhc2 + πrhc2 = 3
2πr2
c1 + πrhc2 + πrhc2
3
A-G
≥ 3(2π)1/3
(c1c2
2)1/3
V
2/3
0 .
Por lo tanto, el costo es el menor cuando hay igualdad en la desigualdad (A-G), esto es,
cuando
2πr2
c1 = πrhc2 = πrhc2 =
3(2π)1/3
(c1c2
2)1/3
V
2/3
0
3
= (2π)1/3
(c1c2
2)1/3
V
2/3
0 .
Vemos de nuevo que la asignaci´on de costo ´optimo es 1
3
del costo de la parte superior e
inferior y 2
3
del costo de los lados, independientemente de los valores de c1 y c2. Luego
resolviendo, las dimensiones del cilindro de costo m´ınimo son
r =
c
1/3
2 V
1/3
0
21/3π1/3c
1/3
1
, h =
22/3
c
2/3
1 V
1/3
0
π1/3c
2/3
2
,
luego el costo ser´a m´ınimo cuando la desigualdad (A-G) sea igualdad, por lo tanto
cm´ın = 3(2π)1/3
(c1c2
2)1/3
V
2/3
0
Los pares de ejemplos (2.2.1), (2.2.2) y (2.2.3), (2.2.4) proporcionan nuestros primeros
pasos de problemas duales. Los ejemplos anteriores tratan esencialmente con las mismas
funciones, excepto que la funci´on objetivo en un problema es la funci´on de restricci´on
en el otro, y un problema es de minimizaci´on mientras que el otro es un problema de
maximizaci´on. El siguiente ejemplo proporciona una mayor ilustraci´on de la dualidad.
11
Ejemplo 2.2.5. Considere el siguiente problema:
Maximizar f(x1, x2, x3) = x1x2
2x3 ,
sujeto a x1 + x2 + x3
3 = k ,
donde k > 0 es fijo y x1, x2, x3 son n´umeros reales positivos.
(P)
Soluci´on: En este caso, el problema dual es
Minimizar g(x1, x2, x3) = x1 + x2 + x2
3 ,
sujeto a x1x2
2x3 = c ,
donde c > 0 es fijo y x1, x2, x3 son n´umeros reales positivos.
(D)
Desde luego, (P) es tambi´en el problema dual para (D).
Para resolver ambos problemas, necesitamos desdoblar x1 + x2 + x2
3 de tal manera que
la aplicaci´on de la desigualdad (A-G) produzca un m´ultiplo constante de una potencia
adecuada de (x1x2
2x3) en el extremo inferior de la desigualdad. Esto se puede lograr como
sigue:
k = x1 + x2 + x2
3 =
x1
2
+
x1
2
+
x2
4
+
x2
4
+
x2
4
+
x2
4
+ x2
3
= 7


x1
2
+
x1
2
+
x2
4
+
x2
4
+
x2
4
+
x2
4
+ x2
3
7


(A-G)
≥ 7
1
2
2/7
1
4
4/7
(x1x2
2x3)2/7
.
La igualdad se cumple en esta desigualdad precisamente cuando
x1
2
=
x2
4
= x2
3 =
k
7
.
Para maximizar x1x2
2x3 sujeto a la restricci´on x1 +x2 +x2
3 = k, elegimos los valores ´optimos
x∗
1, x∗
2, x∗
3 que fuerzan a la igualdad en la desigualdad (A-G) con el extremo superior de la
desigualdad igual a k, esto es,
x∗
1 =
2k
7
, x∗
2 =
4k
7
, x∗
3 =
k
7
.
12
Para minimizar x1 + x2 + x2
3 sujeto a la restricci´on x1x2
2x3 = c, elegir los valores ´optimos
x∗
1, x∗
2, x∗
3 que fuerzan a la igualdad en la desigualdad (A-G) con en el extremo inferior de
la desigualdad igual a 1
2
2/7 1
4
4/7
c2/7
, esto es,
x∗
1 = 2
1
2
2/7
1
4
4/7
c2/7
, x∗
2 = 2x∗
1 , x∗
3 =
1
2
x∗
1 .
La desigualdad (A-G) puede tambi´en ser usada para resolver algunos problemas de
minimizaci´on sin restricciones. El truco es desdoblar la funci´on objetivo de tal manera que
la aplicaci´on de la desigualdad (A-G) produzca una constante en el extremo inferior de la
desigualdad. Los siguientes ejemplos ilustran el procedimiento.
Ejemplo 2.2.6. Encontrar los valores de x > 0 que minimizan la funci´on
f(x) = c1x3
+
c2
x
,
donde c1, c2 son constantes positivas.
Soluci´on: Para resolver este problema con la desigualdad (A-G), procederemos como si-
gue:
f(x) = c1x3
+
c2
x
= c1x3
+
1
3
c2
x
+
1
3
c2
x
+
1
3
c2
x
= 4



c1x3
+
1
3
c2
x
+
1
3
c2
x
+
1
3
c2
x
4



(A-G)
≥ 4
1
3
3/4
c
1/4
1 c
3/4
2 .
Para minimizar f, forzar la igualdad en (A-G). Esto equivale a la elecci´on de x∗
de modo
que
c1(x∗
)3
=
1
3
c2
x∗
=
1
3
3/4
c
1/4
1 c
3/4
2 .
Esto da lugar a
x∗
=
1
3
1/4
c
−1/4
1 c
1/4
2
como el minimizador.
13
En realidad, el ejemplo anterior podr´ıa haber sido f´acilmente resuelto como un problema
de c´alculo. El siguiente ejemplo no es f´acil de hacer con los m´etodos de c´alculo, pero es
bastante f´acil para una aplicaci´on de la desigualdad (A-G).
Ejemplo 2.2.7. Encontrar los minimizadores de
f(x1, x2) = 4x1 +
x1
x2
2
+
4x2
x1
para x1 > 0, x2 > 0.
Soluci´on: Este problema puede resolverse por la desigualdad (A-G) de la siguiente ma-
nera:
f(x1, x2) = 4




4x1 +
x1
x2
2
+
2x2
x1
+
2x2
x1
4




(A-G)
≥ 4(41/4
)(22/4
)
x2
1x2
2
x2
2x2
1
1/4
= 8 .
Si forzamos a la igualdad en la desigualdad anterior, vemos que los valores x∗
1 y x∗
2 que
minimizan f(x1, x2) son dados por
4x∗
1 =
x∗
1
(x∗
2)2
=
2x∗
2
x∗
1
= 2 ,
esto es,
x∗
1 =
1
2
, x∗
2 =
1
2
,
y que el m´ınimo valor es 8.
Note que este ejemplo no es f´acil de atacar con los m´etodos del c´alculo. De hecho, los
puntos cr´ıticos son soluciones del sistema
∂f
∂x1
= 4 +
1
x2
2
−
4x2
x2
1
= 0 ,
∂f
∂x2
= −
2x1
x3
2
+
4
x1
= 0 .
14
Resolver este sistema por medios no f´aciles y adem´as examinar el Hessiano




8x2
x3
1
−
2
x3
2
−
4
x2
1
−
2
x3
2
−
4
x2
1
6x1
x4
2




esto es una perspectiva ¡aterradora!.
Los ejemplos discutidos en esta secci´on ciertamente indican que la desigualdad (A-G)
puede ser una herramienta importante para la soluci´on de problemas de optimizaci´on. La
´unica parte de nuestro planteamiento, que no estaba completamente claro era “dividir” o
“desdoblar” la funci´on apropiadamente en el extremo superior de la desigualdad (A-G).
Hicimos esto f´acilmente por inspecci´on en los ejemplos considerados aqu´ı porque las fun-
ciones que consideramos envolvian tres o menos variables. Sin embargo, es aparente que el
proceso de dividir (desdoblar) puede ser dif´ıcil de aplicar para funciones con m´as variables.
El otro punto en nuestro enfoque que es un poco nebuloso por el momento es el alcance del
m´etodo, es decir, todav´ıa tenemos que identificar con precisi´on los tipos de problemas de
optimizaci´on que son tratables v´ıa la desigualdad (A-G). Abordaremos estas dos cuestiones
en la siguiente secci´on. En particular, vamos a desarrollar un marco formal y un procedi-
miento sistem´atico llamado programaci´on geom´etrica aplicando la desigualdad (A-G) a los
problemas de optimizaci´on. En programaci´on geom´etrica, el proceso de dividir (desdoblar)
que fue desarrollado por inspecci´on en los ejemplos de esta secci´on es sustituido por la so-
luci´on de un cierto sistema de ecuaciones lineales determinado por el problema en cuesti´on.
Esta sustituci´on da lugar a un procedimiento sistem´atico y pr´actico que se aplicar´a ruti-
nariamente a una amplia clase de problemas. Sin embargo, la esencia de la programaci´on
geom´etrica se encuentra en las soluciones informales de los ejemplos considerados en esta
secci´on, el resto es s´olo una cuesti´on de hacer el procedimiento sistem´atico y rutinario.
15
2.3. Programaci´on geom´etrica sin restricciones.
Esta secci´on presenta un procedimiento sistem´atico para manipular problemas de pro-
gramaci´on geom´etrica sin restricciones. Como demostramos en la secci´on anterior, es con
frecuencia posible resolver estos problemas directamente de la desigualdad (A-G) y por
inspecci´on. Sin embargo, algunos problemas son muy complicados para hacerlos de esta
manera, y el procedimiento que estamos apunto de discutir entonces viene al rescate.
Tambi´en tenemos otro objetivo en mente para esta secci´on. Se habr´a notado ya, que
nunca probamos que siempre es posible forzar a la igualdad en la desigualdad (A-G) en los
ejemplos de la secci´on anterior. Una vez que hallamos establecido nuestro procedimiento
sistem´atico para problemas de programaci´on geom´etrica sin restricciones, probaremos que
siempre es posible forzar a la igualdad.
Definici´on 2.3.1. Una funci´on g definida para todo
t = (t1, . . . , tm) ∈ Rm
con tj > 0 para todo j = 1, . . . , m es
llamado posinomial si g(t) es de la forma
g(t) =
n
i=1
ci
m
j=1
(tj)αij
,
donde los ci’s son constantes positivas y los αij son exponentes
reales arbitrarios.
As´ı pues, un posinomial es una combinaci´on lineal con coeficientes no negativos de t´erminos
que son productos de potencias reales de variables no negativas t1, . . . , tm. Por ejemplo,
g(t1, t2) = 3t−1
1 t
√
2
2 + t3
1t
1/2
2 +
√
3t
−1/2
1
es un posinomial definido sobre en interior de el primer cuadrante en R2
.
El objetivo de la programaci´on geom´etrica sin restricciones es resolver el siguiente pro-
16
grama geom´etrico primal:
Minimizar el posinomial g(t) =
n
i=1
ci
m
j=1
t
αij
j , (GP)
donde t1 > 0, . . . , tm > 0 .
Por una soluci´on del (GP) sencillamente nos referimos a un minimizador global t∗
para g
sobre el conjunto de vectores t en Rm
con componentes positivas.
Comenzaremos nuestro ataque sobre el programa (GP) observando que g puede ser
reescrito como
g(t) =
n
i=1
δi






ci
m
j=1
t
αij
j
δi






,
donde cada δi se supone que es un n´umero positivo (Condici´on de Positividad). Si a esto
a˜nadimos la restricci´on de que
n
i=1
δi = 1 , (Condici´on de Normalidad)
podemos aplicar la desigualdad (A-G) a esta nueva expresi´on de g para obtener
g(t)
(A-G)
≥
n
i=1






ci
m
j=1
t
αij
j
δi






δi
=
n
i=1
ci
δi
δi n
i=1
m
j=1
t
αij δi
j
=
n
i=1
ci
δi
δi m
j=1
t i αij δi
j
Por lo tanto, si se impone la restricci´on adicional de que
n
i=1
αijδj = 0 ; j = 1, . . . , m , (Condici´on de Ortogonalidad)
17
entonces la desigualdad anterior nos da el siguiente resultado
g(t) ≥
n
i=1
ci
δi
δi
.
As´ı, si definimos
v(δ) =
n
i=1
ci
δi
δi
entonces los c´alculos anteriores muestran que
g(t) ≥ v(δ) (Desigualdad Primal-Dual)
para cualquier t ∈ Rm
con componentes positivas y cualquier δ ∈ Rn
que satisface las
Condiciones de Positividad, Normalidad y Ortogonalidad.
Estas consideraciones nos lleva a considerar el siguiente programa geom´etrico dual:
Maximizar v(δ) =
n
i=1
ci
δi
δi
, (PGD)
sujeto a δ1 > 0, . . . , δn > 0 , (Condici´on de Positividad)
n
i=1
δi = 1 , (Condici´on de Normalidad)
∀j :
n
i=1
αijδi = 0 , (Condici´on de Ortogonalidad)
Un vector δ ∈ Rn
que satisface las Condiciones de Positividad, Normalidad y Ortogonalidad
es un vector factible para el (PGD). El programa dual es consistente si el conjunto de
vectores factibles para el (PGD) es no vacio. Finalmente, por una soluci´on para el progama
dual (PGD) nos referimos a un vector δ∗
∈ Rn
que es un maximizador global para v(δ)
sobre el conjunto de vectores factibles para el (PGD).
Note que si t∗
es una soluci´on al programa primal (GP) y si δ∗
es una soluci´on al
programa dual (PGD), entonces
g(t∗
) ≥ v(δ∗
)
por la desigualdad Primal-Dual. A continuaci´on se muestra, entre otras cosas, que en
realidad g(t∗
) es igual a v(δ∗
) y que de esta igualdad genera un procedimiento para calcular
las soluciones del programa (GP) y (PGD) cuando estos programas tienen soluciones.
18
Teorema 2.3.1. Si t∗
= (t∗
1, . . . , t∗
m) es una soluci´on del programa geom´etrico primal (GP),
entonces el correspondiente programa geom´etrico dual (PGD) es consistente. Adem´as, el
vector δ∗
= (δ∗
1, . . . , δ∗
n) definido por
δ∗
i =
ui(t∗
)
g(t∗)
, i = 1, . . . , n
(donde ui(t) = cit
αij
1 · · · tαim
m es el i’´esimo t´ermino de g) es una soluci´on para el (PGD) y
la igualdad se cumple en la Desigualdad Primal-Dual, esto es,
g(t∗
) = v(δ∗
) .
Demostraci´on: Un t´ermino t´ıpico de g en (GP) es
ui(t) = citαi1
1 · · · tαim
m .
La derivada parcial de ui(t) respecto de tj tiene un efecto muy simple sobre ui(t), simple-
mente se multiplica ui(t) por αij y se reduce el exponente de tj en 1. Esto significa que la
siguiente ecuaci´on se cumple:
tj
∂ui
∂tj
= αijui .
Ya que t∗
= (t∗
1, . . . , t∗
m) es un minimizador para g en (GP), se deduce que
0 =
∂g
∂tj
(t∗
) =
n
i=1
∂ui
∂tj
(t∗
) , j = 1, 2, . . . , m .
Pero entonces de las observaciones anteriores tenemos que
0 =
n
i=1
αijui(t∗
) , j = 1, 2, . . . , m .
Ya que g(t∗
) > 0 (ver (GP)), podemos dividir en ambos lados de la ´ultima ecuaci´on por
g(t∗
) obteniendo
0 =
n
i=1
αij
ui(t∗
)
g(t∗)
, j = 1, 2, . . . , m .
Consecuentemente, si definimos
δ∗
i =
ui(t∗
)
g(t∗)
, i = 1, . . . , n ,
19
entonces δ∗
= (δ∗
1, . . . , δ∗
n) satisfacen la Condici´on de Ortogonalidad para el programa dual
(PGD). Por otra parte, δ∗
i > 0 para i = 1, . . . , n por lo que la Condici´on de Positividad es
satisfecha. Finalmente,
n
i=1
δ∗
i =
n
i=1
ui(t∗
)
g(t∗)
=
g(t∗
)
g(t∗)
= 1
por lo que la Condici´on de Normalidad se cumple. Concluimos que el vector δ∗
es factible
para el programa dual, por lo que el programa dual (PGD) es consistente. Adem´as
g(t∗
) = g(t∗
)δ∗
1 +···+δ∗
n = (g(t∗
))δ∗
1 · · ·(g(t∗
))δ∗
n
=
u1(t∗
)
δ∗
1
δ∗
1
· · ·
un(t∗
)
δ∗
n
δ∗
n
=
c1
δ∗
1
δ∗
1
· · ·
cn
δ∗
n
δ∗
n
= v(δ∗
) ,
asi que se cumple la igualdad en la desigualdad Primal-Dual. Esto implica que δ∗
es una
soluci´on del programa dual (PGD). Puesto que
δ∗
i =
ui(t∗
)
g(t∗)
, i = 1, 2, . . . , n ,
la prueba est´a completa.
Con el teorema anterior en manos, podemos formular el siguiente m´etodo para un
programa geom´etrico.
El procedimiento de Programaci´on Geom´etrica. Dado un programa geom´etrico
primal
Minimizar el posinomial g(t) =
n
i=1
ui(t) , (PD)
donde ui(t) = citαi1
1 . . . tαim
m y ti > 0, . . . , tm > 0; ci > 0
procedemos como sigue:
Paso 1. Calcular el conjunto F de vectores facibles para el programa geom´etrico dual
20
(PGD), es decir, el conjunto de todos los vectores δ en Rn
tales que
δ1 > 0, . . . , δn > 0 , (Condici´on de Positivadad)
n
i=1
δi = 1 , (Condici´on de Normalidad)
n
i=1
αijδi = 0 ; j = 1, . . . , m (Condici´on de Ortogonalidad)
Paso 2. Si el conjunto F de vectores factibles para el (PGD):
(a) Es vacio, entonces parar. El programa dado (GP) no tiene soluci´on en este
caso;
(b) Consta de un s´olo vector δ∗
, entonces δ∗
es un soluci´on del (PGD). Vaya al
Paso 4;
(c) Consta de m´as de un vector, entonces vaya al Paso 3.
Paso 3. Encuentre un vector δ∗
que es un maximizador global para la funci´on dual
v(δ) =
n
i=1
ci
δi
δi
sobre el conjunto F de vectores factibles para el (PGD). Entonces δ∗
es una
soluci´on del (PGD). Vaya al Paso 4.
Paso 4. Dado una soluci´on δ∗
del (PGD), una soluci´on t∗
del programa primal es obtenido
de resolver las ecuaciones
δ∗
1 =
ui(t∗
)
v(δ∗)
, i = 1, . . . , n ,
para t∗
1, . . . , t∗
m. El valor m´ınimo g(t∗
) de g es igual al valor m´aximo v(δ∗
) para la
funci´on dual v.
Comentarios.
(1) Para encontrar el conjunto F de vectores factibles para el programa dual, primero re-
solver el sistema lineal de ecuaciones que consiste de las Condiciones de Ortogonalidad
y Normalidad, y luego imponer la Condici´on de Positividad en la soluci´on resultante.
21
(2) La instrucci´on en el Paso 2(a) de que el (GP) no tiene soluciones si el conjunto F
de vectores factibles de el programa dual es vacio es consecuencia del Teorema 2.3.1.
Porque si (GP) tiene un soluci´on t∗
, entonces el Teorema 2.3.1 afirma que el programa
dual es consistente, es decir, F es no vacio.
(3) La alternativa “dif´ıcil” es el Paso 2(c) , porque estamos obligados a encontrar un
maximizador δ∗
para v en el conjunto F de vectores factibles para (PGD) por alg´un
medio.
(4) La soluci´on del sistema de ecuaciones prescrito en la Paso 4 parece complicado porque
las ecuaciones no son lineales en la variables t∗
1, . . . , t∗
m. Sin embargo, debido
ui(t∗
) = ci(t∗
1)αi1
· · · (t∗
m)αim
,
podemos obtener t∗
1, . . . , t∗
m resolviendo el sistema de ecuaciones lineales
αi1 log t∗
1 + · · · + αim log t∗
m = log δ∗
i − log ci + log v(δ∗
) , i = 1, . . . , n .
Por lo tanto, el procedimiento sistem´atico para la programaci´on geom´etrica que fue
descrito anteriormente es un proceso extremadamente lineal.
(5) La i-´esima componente δ∗
i de la soluci´on δ∗
del programa dual (PGD) especifica el
aporte realtivo del i-´esimo t´ermino ui(t∗
) al valor m´ınimo g(t∗
) del (GP).
2.4. Ejemplos sin restricciones.
Ejemplo 2.4.1. Sea c1, c2, c3, c4 y V constantes positivas. Considere el siguiente programa
geom´etrico:
Minimizar g(t) =
c1V
t1t2t3
+ 2c2t2t3 + 2c3t1t3 + c4t1t2 ,
donde t1 > 0, t2 > 0, t3 > 0 .
22
Soluci´on: Aqu´ı el problema dual es
Maximizar V (δ) =
c1V
δ1
δ1
2c2
δ2
δ2
2c3
δ3
δ3
2c4
δ4
δ4
,
sujeto a δ1 + δ2 + δ3 + δ4 = 1 (Condici´on de Normalidad),
δi > 0, 1 = 1, 2, 3, 4 (Condici´on de Positividad),
−δ1 + + δ3 + δ4 = 0
−δ1 + δ2 + δ4 = 0
−δ1 + δ2 + δ3 = 0





Condici´on de
Ortogonalidad

 .
Si aplicamos el Paso 1 del precedimiento mostrado en secci´on anterior, encontraremos que
el vector
δ∗
=
2
5
,
1
5
,
1
5
,
1
5
es el ´unico vector factible para el dual, por lo que seguimos la alternativa (b) en el Paso 3.
Por consiguiente, podemos encontrar las soluciones t∗
1, t∗
2, t∗
3 resolviendo el sistema.
c1V
t∗
1t∗
2t∗
3
= δ∗
1v(δ∗
) =
2
5
v(δ∗
) ,
2c2t∗
2t∗
3 = δ∗
2v(δ∗
) =
1
5
v(δ∗
) ,
2c3t∗
1t∗
3 = δ∗
3v(δ∗
) =
1
5
v(δ∗
) ,
c4t∗
1t∗
2 = δ∗
4v(δ∗
) =
1
5
v(δ∗
) .
Omitiremos el resto de los detalles del c´alculo. Note que las contribuciones relativas de los
cuatro t´erminos en g(t∗
) son 2
5
, 1
5
, 1
5
, 1
5
independiente de los valores de c1, c2, c3, c4.
Ejemplo 2.4.2. Considere el programa geom´etrico
Minimizar g(t1, t2) =
2
t1t2
+ t1t2 + t1 ,
donde t1 > 0, t2 > 0 .
23
Soluci´on: El programa dual es
Maximizar v(δ) =
2
δ1
δ1
1
δ2
δ2
1
δ3
δ3
,
sujeto a δ1, δ2, δ3 > 0 ,
δ1 + δ2 + δ3 = 1 ,
−δ1 + δ2 + δ3 = 0 ,
−δ1 + δ2 = 0 .
Resolviendoe stas ecuaciones, encontramos que la ´unica soluci´on es δ1 = 1
2
, δ2 = 1
2
, y δ3 = 0.
Estos vector no es factible para el dual (porque δ3 = 0) y por lo tanto no hay vectores
factibles para el dual. Consecuentemente, la alternativa (a) en el Paso 2 nos dice que el
programa dado no tiene soluci´on.
Ejemplo 2.4.3. Considere el programa geom´etrico
Minimizar g(t1, t2) =
1
t1t2
+ t1t2 + t1 + t2 ,
donde t1 > 0, t2 > 0 .
Soluci´on: El programa dual es
Maximizar v(δ) =
1
δ1
δ1
1
δ2
δ2
1
δ3
δ3
1
δ4
δ4
,
sujeto a δ1, δ2, δ3, δ4 > 0 ,
δ1 + δ2 + δ3 + δ4 = 1 ,
−δ1 + δ2 + δ3 = 0 ,
−δ1 + δ2 + δ4 = 0 .
24
Un poco de trabajo muestra que este sistema es equivalente al siguiente:
δ1 = δ1 > 0 ,
δ2 = 3δ1 − 1 > 0 ,
δ3 = 1 − 2δ1 > 0 ,
δ4 = 1 − 2δ1 > 0 ,
y estas desigualdades restringen δ1 al rango 1
3
< δ1 < 1
2
. As´ı, la maximizaci´on de v(δ)
equivale a la maximizaci´on de
f(s) =
1
2
s
1
1 − 2s
1−2s
1
1 − 2s
1−2s
1
3s − 1
3s−1
en el intervalo 1
3
< s < 1
2
. Tomando logaritmos, maximizamos
ln f(s) = −s ln 2 − 2(1 − 2s) ln(1 − 2s) − (3s − 1) ln(3s − 1) ,
que es posible resolver por m´etodos iterativos sin ning´un problema.
25
Cap´ıtulo 3
Progamaci´on geom´etrica con
restricciones
3.1. Conocimientos previos.
Teorema 3.1.1 (Desigualdad Media Aritm´etica-Geom´etrica Extendida). Suponga que
x1, . . . , xn son n´umeros positivos. Si δ1, . . . , δn son n´umeros que son todos positivos o todos
ceros y si λ = δ1 + · · · + δn, entonces
n
i=1
xi
λ
≥ λλ
n
i=1
xi
δi
δi
bajo la convenci´on 00
= 1 y (xi/0)0
= 1.
La igualdad se cumple en esta desigualdad si y s´olo si δ1 = δ2 = · · · = δn = 0 o
xi =
δi
λ
n
j=1
xj
para i = 1, . . . , n.
Demostraci´on: Suponga primero que todos los δi’s son n´umeros positivos. Note que δi/λ
es positivo para i = 1, 2, . . . , n y que
δ1
λ
+
δ2
λ
+ · · · +
δn
λ
= 1 .
26
Consequentemente, si aplicamos la desidgualdad Media Aritm´etica Geom´etrica (A-G) Teo-
rema 1.2.1 a (λxi)/δi y δi/λ para i = 1, 2, . . . , n, obtenemos
n
i=1
xi =
n
i=1
δi
λ
λxi
δi
≥
n
i=1
λxi
δi
δi/λ
,
cumpliendose la igualdad si y s´olo si
λx1
δ1
=
λx2
δ2
= · · · =
λxn
δn
.
Pero luego
n
i=1
xi
λ
≥
n
i=1
λxi
δi
δi
= λλ
n
i=1
xi
δi
δi
.
Por otra parte, si λxi/δi = M para i = 1, 2, . . . , n, entonces
n
i=2
xi =
n
i=1
Mδi
λ
=
M
λ
n
i=1
δi = M ,
luego con λ
xi
δi
= M tenemos que
xi =
Mδi
λ
=
δi
λ
n
i=1
xi ,
por lo tanto la condici´on de igualdad se cumple.
Finalmente, note que si todos los δi’s son iguales a cero, entonces ambos lados de la
desigualdad prescrita son iguales a 1. Esto completa la prueba.
La siguiente definici´on describe el marco de la programaci´on geom´etrica con restriccio-
nes.
27
Definici´on 3.1.1. Suponga que g0, g1, . . . , gk son posinomiales
con m-variables reales positivas t = (t1, t2, . . . , tm). Entonces el
programa
(PG)



Minimizar g0(t)
s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 ,
donde t1 > 0, t2 > 0, . . . , tm > 0
es llamado un programa geom´etrico con restricciones.
La siguiente definici´on define el marco de la programaci´on convexa.
Definici´on 3.1.2. Suponga que f, g1, . . . , gm son funcioines
real-valuadas definidas sobre un subconjunto C de Rn
.
(PC)



Minimizar f
s.a. g1(x) ≤ 0, g2(x) ≤ 0, . . . , gm(x) ≤ 0 ,
donde x ∈ C ⊂ Rn
.
La funci´on f es llamada la funci´on objetivo de (PC) y las desigualdades de funciones
g1(x) ≤ 0, . . . , gm(x) ≤ 0 son llamadas las restricciones (desigualdades) para (PC). Un
punto x ∈ C que satisface todas las restricciones del programa (PC) es llamado un punto
factible para (PC), y el conjunto F de todos los puntos factibles para (PC) es llamado regi´on
de factibilidad para (PC). Si la regi´on factible para (PC) es no vacia, diremos que (PC)
es consistente. Si hay un punto factible x para (PC) tal que gi(x) < 0 para i = 1, . . . , m,
entonces (PC) es superconsistente y el punto x es llamado un punto de Slater para (PC).
Teorema 3.1.2 (Karush-Kuhn-Tucker(Forma de Gradiente)). Suponga que (PC)
es un programa convexo superconsistente tal que la funci´on objetivo f y las funciones de
restricci´on g1, . . . , gm tienen la primera de derivada continua en el conjunto C para (PC).
28
Si x∗
es factible para (PC) y es un punto interior de C, entonces x∗
es una soluci´on de
(PC) si y s´olo si existe un λ∗
∈ Rm
tal que:
(1) λ∗
i ≥ 0 para i = 1, 2, . . . , m;
(2) λ∗
i gi(x∗
) = 0 para i = 1, 2, . . . , m;
(3) ∇f(x∗
) +
m
i=1
λ∗
i ∇gi(x∗
) = 0.
Teorema 3.1.3.
(a) Si f1, . . . , fk son funciones convexas en el conjunto convexo C de Rn
, entonces
f(x) = f1(x) + f2(x) + · · · + fk(x)
es convexa. Adem´as, si al menos uno de los fi es estrictamente convexa en C, entonces
la suma f(x) es estrictamente convexa.
(b) Si f es convexa (estrictamente convexa) en el conjunto convexo C de Rn
y si α es un
n´umero positivo, entonces αf es convexo (estrictamente convexo) en C.
(c) Si f es una funci´on convexa (estrictamente convexa) definida en un conjunto convexo
C de Rn
, y si g es una funci´on convexa creciente (estrictamente creciente) definida en
el rango de f de R, entonces la funci´on composici´on g ◦ f es convexa (estrictamente
convexa) en C.
3.2. Ejemplo.
Ejemplo 3.2.1. Considere el siguiente programa
Minimizar
40
t1t2t3
+ 40t2t3
sujeto a 2t1t3 + t1t2 ≤ 4 ,
donde t1 > 0, t2 > 0, t3 > 0 .
29
Soluci´on: Si dividimos la desigualdad de restricci´on por 4, obtenemos un programa
geom´etrico de la forma 3.1.1 con
g0(t1, t2, t3) =
40
t1t2t3
+ 40t2t3 ,
g1(t1, t2, t3) =
t1t3
2
+
t1t2
4
.
Ahora procedemos como sigue: Para cualquier λ > 0, (g1(t))λ
≤ 1 as´ı que para cualesquiera
δ1 > 0, δ2 > 0, tenemos
g0(t) ≥ g0(t)(g1(t))λ
=
40
t1t2t3
+ 40t2t3 (g1(t))λ
= δ1
40
δ1t1t2t3
+ δ2
40t2t3
δ2
(g1(t))λ
.
Si ahora imponemos la restricci´on de que δ1 + δ2 = 1 y aplicamos la Desigualdad Media
Aritm´etica-Geom´etrica Teorema 2.1.2, obtenemos
g0(t) ≥
40
δ1t1t2t3
δ1
40t2t3
δ2
δ2
(g1(t))λ
=
40
δ1
δ1
40
δ2
δ2
(t1)−δ1
(t2)(−δ1+δ2)
(t3)(−δ1+δ2)
(g1(t))λ
.
Luego, nos enfocamos en el factor (g1(t))λ
en la ´ultima expresi´on y aplicamos la Desigualdad
Media Aritm´etica Geom´etrica Extendida Teorema 3.1.1, luego tenemos
g1(t)λ
=
t1t3
2
+
t1t2
4
λ
≥ λλ t1t3
2δ3
δ3
t1t2
4δ4
δ4
= λλ 1
2δ3
δ3
1
4δ4
δ4
t
(δ3+δ4)
1 tδ4
2 tδ3
3 ,
siempre que λ = δ3 + δ4. Si combinamos las conclusiones de los c´alculos anteriores, vemos
que
g0(t) ≥
40
δ1
δ1
40
δ2
δ2
1
2δ3
δ3
1
4δ4
δ4
(δ3 + δ4)δ3+δ4
= v(δ1, δ2, δ3, δ4)
30
siempre que
δ1 + δ2 = 1 ,
δ3 + δ4 = λ ,
−δ1 + δ3 + δ4 = 0 ,
−δ1 + δ2 + δ4 = 0 ,
−δ1 + δ2 + δ3 = 0 ,
δ1 > 0, δ2 > 0, δ3 > 0, δ4 > 0 .
(Las tres ´ultimas ecuaciones resultan de igualar los exponentes de t1, t2, t3 a cero.) Este
sistema tiene la soluci´on ´unica
δ∗
1 =
2
3
, δ∗
2 =
1
3
, δ∗
3 =
1
3
, δ∗
4 =
1
3
,
y el correspondiente valor de v(δ1, δ2, δ3, δ4) es
v
2
3
,
1
3
,
1
3
,
1
3
= 60 .
As´ı, 60 es una cota inferior para el valor de g0 sujeto a la restricci´on g1(t) ≤ 1. Encon-
trar el valor m´ınimo de g0 y un minimizador t∗
= (t∗
1, t∗
2, t∗
3) que conduce a este valor
m´ınimo, buscamos esos valores t∗
1, t∗
2, t∗
3 que fuerzan a la igualdad en las Desigualdades
Media-Geom´etrica de 2.1.2 y 3.1.1 y simult´aneamente en la restricci´on g1(t) ≤ 1. Si po-
demos encontrar tales t∗
1, t∗
2, t∗
3, entonces sabremos que el m´ınimo de g0(t) sujeto a esta
restricci´on es actualmente 60 y que t∗
= (t∗
1, t∗
2, t∗
3) es el punto minimizador.
Las condiciones de igualdad para las Desigualdades Media Geom´etrica Aritm´etica 2.1.2
y 3.1.1 implican que
40
2
3
t∗
1t∗
2t∗
3
=
40t∗
2t∗
3
1
3
= 60 ,
t∗
1t∗
3
2
3
=
t∗
1t∗
2
4
3
= K .
(¿Por qu´e los dos t´erminos en la primera ecuaci´on es igual a 60?) Ya que δ∗
3, δ∗
4 son positivos,
la igualdad se debe tener en la restricci´on g1(t) ≤ 1 de modo que
1 = δ3K + δ4K =
2
3
K ,
31
y por lo tanto K = 3
2
. Estas consideraciones nos llevan al siguiente sistema de ecuaciones:
t∗
1t∗
2t∗
3 = 1 ,
2t∗
2t∗
3 = 1 ,
t∗
1t∗
3 = 1 ,
t∗
1t∗
2 = 2 .
Podemos convertir este sistema a un sistema de ecuaciones lineales en log t∗
1, log t∗
2, log t∗
3
tomando logaritmos
log t∗
1 + log t∗
2 + log t∗
3 = 0 ,
log t∗
2 + log t∗
3 = − log 2 ,
log t∗
1 + log t∗
3 = 0 ,
log t∗
1 + log t∗
2 = log 2 .
Resolviendo este ´ultimo sistema tenemos que la ´unica soluci´on es t∗
1 = 2, t∗
2 = 1 y t∗
3 = 1
2
,
que son los valores que minimizan el problema inicial.
Comentarios sobre el problema anterior: Resolvimos el programa geom´etrico del
ejemplo anterior aplicando la Desigualdad Media Geom´etrica Aritm´etica 2.1.2 a la funci´on
obgetivo g0(t) y la Desigualdad Media Geom´etrica Aritm´etica Extendida 3.1.1 a la restric-
ci´on g1(t) ≤ 1. ¿Qu´e pasar´ıa si hubi´eramos aplicado 2.1.2 a las dos funciones?. Esto habr´ıa
resultado en el siguiente sistema de ecuaciones de δ1, δ2, δ3, δ4:
δ1 + δ2 = 1 ,
δ3 + δ4 = 1 ,
−δ1 + δ3 + δ4 = 0 ,
−δ1 + δ2 + δ4 = 0 ,
−δ1 + δ2 + δ3 = 0 .
Este es un sistema de ecuaciones inconsistente. En otra palabras, si usamos 2.1.2 en las
funciones objetivo y de restricci´on, y si a continuaci´on a˜nadimos las ecuacionies resultan-
32
tes de establecer los exponentes de t1, t2, t3 iguales a cero, se han impuesto demasiadas
restricciones sobre δ1, δ2, δ3, δ4.
Con la ayuda del Teorema de Karush-Kuhn-Tucker, podemos mostrar que la t´ecnica
aplicada al problema anterior funciona realmente, en general.
3.3. Programaci´on geom´etrica con restricciones.
Ahora desarrollaremos la t´ecnica mostradad en la secci´on anterior en el contexto general
de la programaci´on geom´etrica con restricciones (PG) definido en 3.1.1.
Debido a que cada uno de los k + 1 posinomiales en el programa geom´etrico con res-
triccioines est´andar (PG) Definici´on 3.1.1 puede consistir de varios t´erminos, tenemos que
organizar todos los t´erminos de manera que la notaci´on resultante sea simple y descriptiva.
Una forma razonable de hacerlo es empezar por contar los t´erminos de la funci´on objetivo
g0(t) de izquierda a derecha, enumer´andolos desde 1 hasta n0, y luego continuar contando
los t´erminos de la primera restricci´on posinomial g1(t) de izquierda a derecha, enumeran-
dolos desde n0 + 1 hasta n1, y as´ı sucesivamente hasta contar los t´erminos de la ´ultima
restricci´on posinomial gk(t) de izquierda a derecha, enumerandolos desde nk−1 + 1 hasta
nk = p. El t´ermino j’´esimo en este esquema de recuento se indica como sigue:
uj(t) = cjt
αj1
1 t
αj2
2 . . . tαjm
m .
Con este esquema notacional, podemos reescribir el programa geom´etrico con restricciones
33
est´andar (GP) como
(GP)



Minimizar g0(t) = u1(t) + · · · + un0 (t)
sujeto a las restricciones
g1(t) = un0+1(t) + · · · + un1 (t) ≤ 1 ,
· · · · · · · · ·· · · · · · · · · · · · · · · · · ·
· · · · · · · · ·· · · · · · · · · · · · · · · · · ·
gk(t) = unk−1+1(t) + · · · + unk
(t) ≤ 1 ,
donde t1 > 0, t2 > 0, . . . , tm > 0, y nk = p .
La aplicaci´on de la Desigualdades Media Geom´etrica Aritm´etica 2.1.2 y 3.1.1 s´olo a las
funciones g0(t), g1(t), . . . , gk(t) como en el ejemplo de la secci´on anterior 3.2.1 nos lleva a
considerar el siguiente programa:
(PGD)



Maximizar v(δ) = p
j=1
cj
δj
δj
k
i=1 λi(δ)λi(δ)
sujeto a las restricciones
δ1 + · · · + δn0 = 1 ,
α11δ1 + · · · + αp1δp = 0 ,
...
...
...
...
α1mδ1 + · · · + αpmδp = 0 ,
donde δi > 0 para i = 1, . . . , n0, y para cada k ≥ 1, ya sea
δi > 0 para todo i con nk−1 + 1 ≤ i ≤ nk o δi = 0 para todo i
con nk−1 + 1 ≤ i ≤ nk. Donde, λi(δ) = δni−1+1 + · · · + δni
.
El programa (PGD) es llamado el programa dual del (GP), la funci´on v(δ) es la funci´on
objetivo dual y las restricciones en (PGD) son las restricciones dual. Si δ1, δ2, . . . , δp son
n´umeros que satisfacen las restricciones dual en (PGD), entonces δ = (δ1, . . . , δp) es un
vector fatible para (PGD) y el (PGD) se dice que es consistente. Un vector δ∗
= (δ∗
1, . . . , δ∗
p)
34
que maximiza v(δ) en el conjunto de vectores factibles para (PGD) es una soluci´on de
(PGD).
Para el programa geom´etrico con restricciones considerado en el ejemplo de la secci´on
anterior, hay cuatro variables duales δ1, δ2, δ3, δ4 porque la funci´on objetivo y la ´unica
funci´on de restricci´on cada una contienen dos t´erminos. Hay un y s´olo vector δ = 2
3
, 1
3
, 1
3
, 1
3
que es factible para (PGD) por lo que es autom´aticamente una soluci´on de (PGD).
En general, el n´umero de variables dual en (PGD) es igual al n´umero total p(= nk)
de t´erminos en las funciones de restricci´on y objetivo de (GP). Note que las ecuaciones
de restricci´on en (PGD) son lineales, por lo que el problema de identificar los vectores
factibles de (PGD) se reduce a encontrar las soluciones del sistema de ecuaciones lineales
que tiene componentes no negativos. Tambi´en note que λi(δ) es simplimente la suma de
las componentes de δ que corresponden a los t´erminos de la i’´esima funci´on de restricci´on
gi(t) para i = 1, 2, . . . , k.
Antes de proceder al desarrollo de la relaci´on entre las soluciones del programa (GP)
y el correspondiente programa dual (PGD), vamos a resolver el dual de otro programa
geom´etrico concreto.
Ejemplo 3.3.1. Considere el programa geom´etrico.
Minimizar t1t−1
2 t2
3
sujeto a las restricciones
1
2
t3
1t2t−1
3 ≤ 1 ,
1
4
t
−1/2
1 +
1
4
t
−1/2
2 +
1
4
t3 ≤ 1 ,
donde t1 > 0, t2 > 0, t3 > 0 .
Soluci´on: La funci´on objetivo y las dos restricciones contienen un total de 5 t´erminos por
35
lo que hay 5 variables duales. las restricciones duales son
δ1 = 1 ,
δ1 + 3δ2 −
1
2
δ3 = 0 ,
−δ1 + δ2 −
1
2
δ4 = 0 ,
2δ1 − δ2 + δ5 = 0 ,
donde
δ1 > 0, δ2 ≥ 0, δ3 ≥ 0, δ4 ≥ 0, δ5 ≥ 0,
y la funci´on objetivo dual es
v(δ) =
1
δ1
δ1
1
2δ2
δ2
1
4δ3
δ3
1
4δ4
δ4
1
4δ5
δ5
(δ2)δ2
(δ3 + δ4 + δ5)δ3+δ4+δ5
El programa dado es consistente; de hecho, es incluso superconsistente porque, por ejemplo,
los valores t1 = 1, t2 = 1, t3 = 1 satisfacen ambas restricciones con desigualdades estrictas.
El programa dual es consistente; de hecho, es materia rutinaria verificar que la soluci´on
general de las cuatro ecuaciones de restricci´on dual son
δ1 = 1, δ2 = −
1
3
+
1
6
r, δ3 = r, δ4 = −
8
3
+
1
3
r, δ5 = −
7
3
+
1
6
r ,
donde r es un n´umero real arbitrario. Los requisito de que δi ≥ 0 para i = 1, 2, 3, 4, 5 a˜nade
la restricci´onadicional de que r ≥ 14 As´ı, el conjunto de puntos factibles para el programa
dual es
F = 1, −
1
3
, r, −
1
8
+
1
3
r , −
7
3
+
1
6
r : r ≥ 14 .
El teorema de Karush-Khun-Tucker no parece ser apliclable a los programas geom´etri-
cos, porque los posinomiales no necesariamente son funciones convexas. Por ejemplo, el
posinomial en un variable
g(t) = t1/2
, t > 0 ,
36
no es convexo. Sin embargo, cualquier posinomial g(t) puede ser transformado en una
funci´on convexa h(x) por los cambios de variables
tj = exj
, j = 1, 2, . . . , m . (∗)
M´as precisamente, si el cambio de variables (∗) es aplicado al posinomial
g(t) =
n
i=1
citαi1
1 tαi2
2 . . . tαim
m , ci > 0 ,
la correspondiente funci´on de x = (x1, x2, . . . , xm) es
h(x) =
n
i=1
cie
m
j=1 αij xj
,
y h(x) es convexo en Rn
en virtud del Teorema 3.1.3.
Esta observaci´on nos permite transformar el programa geom´etrico con restricciones
est´andar
(PG)



Minimizar g0
s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 ,
donde t1 > 0, t2 > 0, . . . , tm > 0
en un programa convexo asociado
(GP)∗



Minimizar h0(x) sujeto a las restricciones
h1(x) − 1 ≤ 0, h2(x) − 1 ≤, . . . , hk(x) − 1 ≤ 0 ,
donde x ∈ Rm
,
via los cambios de variables ti = exi
para i = 1, 2, . . . , m. Es mas, porque t = ex
es una
funci´on estrictamente convexa. Los programas (GP) y (GP)∗
son equivalentes en el sentido
de que t∗
= (t∗
1, t∗
2, . . . , t∗
m) es una soluci´on para (GP) si y s´olo si x∗
= (x∗
1x∗
2, . . . , x∗
m) es
una soluci´on de (GP)∗
donde t∗
i = ex∗
i para i = 1, 2, . . . , m.
Estamos preparados para enunciar y demostrar el resultado central en la teor´ıa de
programaci´on geom´etrica con restricciones.
Teorema 3.3.1.
37
(1) Si t es un vector factible para el programa geom´etrico con restricciones (GP) y si δ es
un vector factible para el programa dual correspondiente (PGD), entonces
g0(t) ≥ v(δ) (la Desigualdad Primal − Dual) .
(2) Supongamos que el programa geom´etrico con restricciones (GP) es superconsistente y
que t∗
es una soluci´on para (GP). Entonces el correspondiente programa dual (PGD)
es consistente y tiene una soluci´on δ∗
que satisface
g0(t∗
) = v(δ∗
) ,
y
δ∗
i =



ui(t∗
)
g0(t∗)
, i = 1, . . . , n0 ,
λj(δ∗
)ui(t∗
) , i = nj−1 + 1, . . . , nj ; j = 1, . . . , k .
Demostraci´on:
(1) La Desigualdad Primal-Dual sigue inmediatamente de la definici´on de el programa dual
(PGD) y las Desigualdades Media Aritm´etica-Geom´etrica 2.1.2 y 3.1.1.
(2) Ya que (GP) es superconsistente, por lo que es el programa convexo asociado de (GP)∗
.
Tambi´en desde que (GP) tiene una soluci´on t∗
= (t∗
1, t∗
2, . . . , t∗
m), el programa convexo
asociado (GP)∗
tiene una soluci´on x∗
= (x∗
1, x∗
2, . . . , x∗
m) dada por
x∗
i = ln t∗
i , i = 1, 2, . . . , m .
De acuerdo al Teorema de Karush-Kuhn-Tucker 3.1.2, existe un vector λ∗
=
(λ∗
1, . . . , λ∗
k) tal que:
(a) λ∗
i ≥ 0 para i = 1, 2, . . . , k;
(b) λ∗
i (hi(x∗
) − 1) = 0 para i = 1, 2, . . . , k;
(c)
∂h0
∂xj
(x∗
) +
k
i=1
λ∗
i
∂hi
∂xj
(x∗
) = 0 para j = 1, . . . , m.
38
porque ti = exi
para i = 1, . . . , m, se deduce que para i = 0, 1, . . . , k
∂hi
∂xj
=
∂hi
∂tj
dtj
dxj
=
∂gi
∂tj
exj
,
as´ı la condici´on (c) es equivalente a
∂g0
∂tj
(t∗
) +
k
i=1
λ∗
i
∂gi
∂tj
(t∗
) = 0 , j = 1, 2, . . . , m (c’)
ya que exj
> 0 para j = 1, . . . , m. Pero t∗
j > 0 para j = 1, 2, . . . , m, por lo que (c’) es
equivalente a
t∗
j
∂g0
∂tj
(t∗
) +
k
i=1
λ∗
i t∗
j
∂gi
∂tj
(t∗
) = 0 , j = 1, . . . , m . (c”)
Porque los t´erminos de gi(t) son de la forma
uq(t) = cqt
αq1
1 t
αq2
2 . . . tαqm
m ,
es claro que
t∗
j
∂gi
∂tj
(t∗
) =
ni
q=ni−1+1
αqjuq(t∗
) , j = 1, . . . , m ,
as´ı (c”) implica que
0 =
n0
q=1
αqjuq(t∗
) +
k
r=1
nr
q=nr−1+1
λ∗
rαqjuq(t∗
) .
si dividimos la ´ultima ecuaci´on por
g0(t∗
) =
n0
q=1
uq(t∗
) ,
obtenemos
0 =
n0
q=1
αqj
uq(t∗
)
g0(t∗)
+
k
r=1
nr
q=nr−1+1
αqj
λ∗
ruq(t∗
)
g0(t∗)
.
Definir el vector δ∗
por
δ∗
q =



uq(t∗
)
g0(t∗)
, q = 1, 2, . . . , n0 ,
λ∗
ruq(t∗
)
g0(t∗)
, q = nr−1 + 1, . . . , nr, r = 1, . . . , k .
39
Note que δ∗
q > 0 para q = 1, 2, . . . , n0 y que, para cada r ≥ 1, ya sea δ∗
i > 0 para todo
i con nr−1 + 1 ≤ i ≤ nr o δ∗
i = 0 para todo i con nr−1 + 1 ≤ i ≤ nr de acuerdo al
correspondiente multiplicador λ∗
r de Karush-kuhn-Tucker, es positivo o cero. Tambi´en
observe que el vector δ∗
satisface todas las m ecuaciones de restricci´on exponenciales
en (PGD) as´ı como la restricci´on
n0
q=1
δ∗
q =
n0
q=1
uq(t∗
)
g0(t∗)
= 1 .
Por lo tanto, δ∗
= (δ∗
1, . . . , δ∗
p) es un vector factible para (PGD).
Los multiplicadores λ∗
r de Karush-kuhn-Tucker est´an relacionados con las correspon-
dientes λr(δ∗
) en (PGD) com sigue:
λr(δ∗
) =
nr
q=nr−1+1
δ∗
q
nr
q=nr−1+1
λ∗
r
uq(t∗
)
g0(t∗)
= λ∗
r
gr(t∗
)
g0(t∗)
para r = 1, . . . , k. La condici´on (b) de Karush-Kuhn-Tucker nos da
λ∗
r(gr(t∗
) − 1) = 0 , r = 1, . . . , k , (b’)
por lo que λ∗
rgr(t∗
) = λ∗
r para r = 1, . . . , k. Por lo tanto, para r = 1, . . . , k y q =
nr−1 + 1, . . . , nr, vemos que
δ∗
q =
λ∗
ruq(t∗
)
g0(t∗)
=
λ∗
rgr(t∗
)uq(t∗
)
g0(t∗)
= λr(δ∗
)uq(t∗
) . (∗)
El hecho de que δ∗
es factible en (PGD) y que t∗
es factible en (GP) implica que
g0(t∗
) ≥ v(t∗
)
debido a la Desigualdad Prima-Dual (1). Por otra parte, los valores de δ∗
q en q =
1, 2, . . . , p son precisamente los que fuerzan a la igualdad en las Desigualdades Media
Aritm´etica-Geom´etrica 2.1.2 y 3.1.1 que se utiliza para obtener la Desigualdad de
Dualidad. Finalmente, la ecuaci´on (b’) muestra que o bien gr(t∗
) = 1 o λ∗
r = 0 para
r = 1, 2, . . . , k y la ecuaci´on (∗) muestra que λ∗
r = 0 si y s´olo si λr(δ∗
) = 0 para
r = 1, . . . , k. Esto significa que los valores de δ∗
q en ralidad fuerzan a la igualdad en la
Desigualdad Prima-Dual. Esto completa la demostraci´on.
40
La segunda afirmaci´on del teorema anterior implica que si (GP) es un programa
geom´etrico superconsistente para el cual el dual (PGD) es no consistente, entonces (GP)
no tiene soluci´on.
41
Bibliograf´ıa
[1] R.J. Duffin, E.L. Peterson, and C. Zener. Geometric Programming, Wiley, New York,
1967
[2] M. Avriel and D.J. Wilde. Optimal condenser design by geometric programming, Ind.
Eng. Chem. Process Des. Develop. 6 (1967), 256-263.
[3] M. Avriel. Fudamentals of geometric, in Applications of Mathematical Programming
Techniques, (E.M.L. Beale, ed.), American Elsevier, New York, 1970, pp. 295-316.
[4] E. Peterson. The Origins of Geometric Programming. Annals of Operations Research
105, pp. 15-19, 2001.
[5] Robert C. Creese. Geometric Programming for Design and Cost Optimization. Morgan
& Claypool Publisher, 2010.
[6] Mung Chaing,. Goemetric Programming for Communication Systems. now Publisher,
2010.
[7] Stephen Boyd, Seung Jean Kim. A tutorial on geometric programming. Opt. Eng.
(2007) 8: pp. 67-127.
[8] O. G¨uler. Fundations of Optimization. Springer. 2010.
[9] M. Avriel, A.C.Williams. An Extension of Geometric Programming with Applications
in Engineering Optimization. Journal of Engineering Mathematics, Vol. 5, No. 3. pp.
187-194. 1971.
42

Contenu connexe

Tendances

Investigación de operaciones
Investigación de operacionesInvestigación de operaciones
Investigación de operacionesyajairam1
 
Unidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasUnidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasAnel Sosa
 
ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011Carlos Farley Zamudio Melo
 
Programas para programacion lineal
Programas para programacion linealProgramas para programacion lineal
Programas para programacion linealgiancarlo271986
 
Programación lineal
Programación linealProgramación lineal
Programación linealfabioernestoU
 
Metodos de Programacion no lineal
Metodos de Programacion no linealMetodos de Programacion no lineal
Metodos de Programacion no linealluisatero
 
Modulo tema-3-metodos-de-resolucion
Modulo tema-3-metodos-de-resolucionModulo tema-3-metodos-de-resolucion
Modulo tema-3-metodos-de-resolucionEnrike1601
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)Pierina Diaz Meza
 
21066515 ejercicios-resueltos-de-programacion-lineal
21066515 ejercicios-resueltos-de-programacion-lineal21066515 ejercicios-resueltos-de-programacion-lineal
21066515 ejercicios-resueltos-de-programacion-linealAlex Hanco
 
el problema del transporte
el problema del transporteel problema del transporte
el problema del transporteElber Rabanal
 
Programación lineal entera y binaria
Programación lineal entera y binariaProgramación lineal entera y binaria
Programación lineal entera y binariaJaime Medrano
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no linealZaire Mont
 
Programacion dinamica final
Programacion dinamica finalProgramacion dinamica final
Programacion dinamica finalWalter Toledo
 

Tendances (20)

Lenguajes de simulación
Lenguajes de simulaciónLenguajes de simulación
Lenguajes de simulación
 
Investigación de operaciones
Investigación de operacionesInvestigación de operaciones
Investigación de operaciones
 
Unidad III generacion de variables aleatorias
Unidad III generacion de variables aleatoriasUnidad III generacion de variables aleatorias
Unidad III generacion de variables aleatorias
 
ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011ejercicios-resueltos-integrales-dobles-y-triples-2011
ejercicios-resueltos-integrales-dobles-y-triples-2011
 
Programas para programacion lineal
Programas para programacion linealProgramas para programacion lineal
Programas para programacion lineal
 
Programacion lineal
Programacion linealProgramacion lineal
Programacion lineal
 
APLICACIÓN DEL MÉTODO DE NEWTON RAPHSON
APLICACIÓN DEL MÉTODO DE NEWTON RAPHSONAPLICACIÓN DEL MÉTODO DE NEWTON RAPHSON
APLICACIÓN DEL MÉTODO DE NEWTON RAPHSON
 
Programación lineal
Programación linealProgramación lineal
Programación lineal
 
PROBLEMAS DE PROGRAMACIÓN LINEAL
PROBLEMAS DE PROGRAMACIÓN LINEALPROBLEMAS DE PROGRAMACIÓN LINEAL
PROBLEMAS DE PROGRAMACIÓN LINEAL
 
Metodos de Programacion no lineal
Metodos de Programacion no linealMetodos de Programacion no lineal
Metodos de Programacion no lineal
 
Modulo tema-3-metodos-de-resolucion
Modulo tema-3-metodos-de-resolucionModulo tema-3-metodos-de-resolucion
Modulo tema-3-metodos-de-resolucion
 
2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)2 precio dual y costo reducido (1)
2 precio dual y costo reducido (1)
 
El metodo doolittle
El metodo doolittleEl metodo doolittle
El metodo doolittle
 
21066515 ejercicios-resueltos-de-programacion-lineal
21066515 ejercicios-resueltos-de-programacion-lineal21066515 ejercicios-resueltos-de-programacion-lineal
21066515 ejercicios-resueltos-de-programacion-lineal
 
el problema del transporte
el problema del transporteel problema del transporte
el problema del transporte
 
Programación lineal entera y binaria
Programación lineal entera y binariaProgramación lineal entera y binaria
Programación lineal entera y binaria
 
Unidad 3. Programación dinámica
Unidad 3. Programación dinámicaUnidad 3. Programación dinámica
Unidad 3. Programación dinámica
 
12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas
 
Programación no lineal
Programación no linealProgramación no lineal
Programación no lineal
 
Programacion dinamica final
Programacion dinamica finalProgramacion dinamica final
Programacion dinamica final
 

En vedette

Problemas y ejercicios de analisis matematico demidovich - ed. mir
Problemas y ejercicios de analisis matematico   demidovich - ed. mirProblemas y ejercicios de analisis matematico   demidovich - ed. mir
Problemas y ejercicios de analisis matematico demidovich - ed. mirAlvaro Miguel Naupay Gusukuma
 
Programacion no lineaL
Programacion no lineaLProgramacion no lineaL
Programacion no lineaLLuiS YmAY
 
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]Alvaro Miguel Naupay Gusukuma
 
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivanJean Ramos
 
Métodos de programación no lineal
Métodos de programación no linealMétodos de programación no lineal
Métodos de programación no linealIbrahim Portillo
 
Modelos De Programacion Entera
Modelos De Programacion EnteraModelos De Programacion Entera
Modelos De Programacion EnteraCris Tenorio
 
Desigualdades lineales
Desigualdades linealesDesigualdades lineales
Desigualdades linealesEEGC2
 
1 programacion anual del 3º de secundaria
1 programacion anual del 3º de secundaria1 programacion anual del 3º de secundaria
1 programacion anual del 3º de secundariayabelivangallegos
 
Metodos de programcion no lineal
Metodos de programcion no linealMetodos de programcion no lineal
Metodos de programcion no linealAngel Jhoan
 

En vedette (12)

Problemas y ejercicios de analisis matematico demidovich - ed. mir
Problemas y ejercicios de analisis matematico   demidovich - ed. mirProblemas y ejercicios de analisis matematico   demidovich - ed. mir
Problemas y ejercicios de analisis matematico demidovich - ed. mir
 
Programacion no lineaL
Programacion no lineaLProgramacion no lineaL
Programacion no lineaL
 
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]
Problemas y ejercicios de analisis matematico (g. n. berman) [mir, 1977]
 
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan
190835309 analisis-matematico-vol-1-haaser-la-salle-sullivan
 
Pagina De Presentacion Formato Apa. 6ta Ed
Pagina De Presentacion Formato Apa. 6ta EdPagina De Presentacion Formato Apa. 6ta Ed
Pagina De Presentacion Formato Apa. 6ta Ed
 
Métodos de programación no lineal
Métodos de programación no linealMétodos de programación no lineal
Métodos de programación no lineal
 
Modelos De Programacion Entera
Modelos De Programacion EnteraModelos De Programacion Entera
Modelos De Programacion Entera
 
Física 2 hugo medina guzmán
Física 2  hugo medina guzmánFísica 2  hugo medina guzmán
Física 2 hugo medina guzmán
 
Desigualdades lineales
Desigualdades linealesDesigualdades lineales
Desigualdades lineales
 
1 programacion anual del 3º de secundaria
1 programacion anual del 3º de secundaria1 programacion anual del 3º de secundaria
1 programacion anual del 3º de secundaria
 
Metodos de programcion no lineal
Metodos de programcion no linealMetodos de programcion no lineal
Metodos de programcion no lineal
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 

Similaire à Programación geométrica

25019265 problemas-calculo-integral-examen
25019265 problemas-calculo-integral-examen25019265 problemas-calculo-integral-examen
25019265 problemas-calculo-integral-examenninguna
 
Análisis Vectorial
Análisis VectorialAnálisis Vectorial
Análisis VectorialKike Prieto
 
Actividad n8 nivelacion matematicas
Actividad n8 nivelacion matematicasActividad n8 nivelacion matematicas
Actividad n8 nivelacion matematicasvanesa perez
 
Problemas resueltos integrales dobles y triples
Problemas resueltos integrales dobles y triplesProblemas resueltos integrales dobles y triples
Problemas resueltos integrales dobles y triplesortari2014
 
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3shirleyrojas2108
 
Internet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, PublInternet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, Publcbenavide6
 
Internet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, PublInternet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, Publcbenavide6
 
programacion lineal metodo grafico
programacion lineal metodo graficoprogramacion lineal metodo grafico
programacion lineal metodo graficok4ndo
 
2_1_ExpresionesAlgebraicas_final-1.pdf
2_1_ExpresionesAlgebraicas_final-1.pdf2_1_ExpresionesAlgebraicas_final-1.pdf
2_1_ExpresionesAlgebraicas_final-1.pdfDarwImbDk
 
1 problemas r-itr-p triple integral
1 problemas r-itr-p triple integral1 problemas r-itr-p triple integral
1 problemas r-itr-p triple integralEdward Rivera
 
ALGEBRA AREA A.pdf
ALGEBRA AREA A.pdfALGEBRA AREA A.pdf
ALGEBRA AREA A.pdfNicolibaez4
 

Similaire à Programación geométrica (20)

25019265 problemas-calculo-integral-examen
25019265 problemas-calculo-integral-examen25019265 problemas-calculo-integral-examen
25019265 problemas-calculo-integral-examen
 
Análisis Vectorial
Análisis VectorialAnálisis Vectorial
Análisis Vectorial
 
Aplicaciones
AplicacionesAplicaciones
Aplicaciones
 
Actividad n8 nivelacion matematicas
Actividad n8 nivelacion matematicasActividad n8 nivelacion matematicas
Actividad n8 nivelacion matematicas
 
Problemas resueltos integrales dobles y triples
Problemas resueltos integrales dobles y triplesProblemas resueltos integrales dobles y triples
Problemas resueltos integrales dobles y triples
 
Alg alfa
Alg alfaAlg alfa
Alg alfa
 
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
Ejemplos metodo-de-lagrange1-ajustar-a-mat-3
 
Internet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, PublInternet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, Publ
 
Internet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, PublInternet Y Las Matematicas, Pres, Publ
Internet Y Las Matematicas, Pres, Publ
 
Matematica 2 do bimestre
Matematica 2 do bimestreMatematica 2 do bimestre
Matematica 2 do bimestre
 
Trabajo de grado franklin
Trabajo de grado franklinTrabajo de grado franklin
Trabajo de grado franklin
 
programacion lineal metodo grafico
programacion lineal metodo graficoprogramacion lineal metodo grafico
programacion lineal metodo grafico
 
Algebra ceprevi ccesa007
Algebra ceprevi ccesa007Algebra ceprevi ccesa007
Algebra ceprevi ccesa007
 
2_1_ExpresionesAlgebraicas_final-1.pdf
2_1_ExpresionesAlgebraicas_final-1.pdf2_1_ExpresionesAlgebraicas_final-1.pdf
2_1_ExpresionesAlgebraicas_final-1.pdf
 
Extremos. Problemas de aplicación
Extremos. Problemas de aplicación Extremos. Problemas de aplicación
Extremos. Problemas de aplicación
 
maximos.pdf
maximos.pdfmaximos.pdf
maximos.pdf
 
1 problemas r-itr-p triple integral
1 problemas r-itr-p triple integral1 problemas r-itr-p triple integral
1 problemas r-itr-p triple integral
 
Integral indefinida
Integral indefinidaIntegral indefinida
Integral indefinida
 
Inter
InterInter
Inter
 
ALGEBRA AREA A.pdf
ALGEBRA AREA A.pdfALGEBRA AREA A.pdf
ALGEBRA AREA A.pdf
 

Plus de Alvaro Miguel Naupay Gusukuma (20)

Problemas3 (algunas soluciones)
Problemas3 (algunas soluciones)Problemas3 (algunas soluciones)
Problemas3 (algunas soluciones)
 
Problemas3
Problemas3Problemas3
Problemas3
 
Problemas2 (algunas soluciones)
Problemas2 (algunas soluciones)Problemas2 (algunas soluciones)
Problemas2 (algunas soluciones)
 
Problemas2
Problemas2Problemas2
Problemas2
 
Problemas1 (algunas soluciones)
Problemas1 (algunas soluciones)Problemas1 (algunas soluciones)
Problemas1 (algunas soluciones)
 
Problemas1
Problemas1Problemas1
Problemas1
 
Curriculum vitae
Curriculum vitaeCurriculum vitae
Curriculum vitae
 
Funciones (notas de clase incompletas)
Funciones (notas de clase incompletas)Funciones (notas de clase incompletas)
Funciones (notas de clase incompletas)
 
2019-II Cálculo diferencial Examen final
2019-II Cálculo diferencial  Examen final2019-II Cálculo diferencial  Examen final
2019-II Cálculo diferencial Examen final
 
Sustitutorio 2019-II
Sustitutorio 2019-IISustitutorio 2019-II
Sustitutorio 2019-II
 
Final
FinalFinal
Final
 
PC6 2018-I
PC6 2018-IPC6 2018-I
PC6 2018-I
 
Cali3sol
Cali3solCali3sol
Cali3sol
 
Parcial 1 (Repaso 2018)
Parcial 1 (Repaso 2018)Parcial 1 (Repaso 2018)
Parcial 1 (Repaso 2018)
 
Problemas2
Problemas2Problemas2
Problemas2
 
Problemas1
Problemas1Problemas1
Problemas1
 
E.D. Examen Final (2017-I)
E.D. Examen Final (2017-I)E.D. Examen Final (2017-I)
E.D. Examen Final (2017-I)
 
Parcial(2017 i) (solucionario)
Parcial(2017 i) (solucionario)Parcial(2017 i) (solucionario)
Parcial(2017 i) (solucionario)
 
Piskunov tomo II
Piskunov   tomo IIPiskunov   tomo II
Piskunov tomo II
 
Piskunov tomo I
Piskunov   tomo IPiskunov   tomo I
Piskunov tomo I
 

Programación geométrica

  • 1. UNIVERSIDAD NACIONAL DE INGENIER´IA FACULTAD DE CIENCIAS ESCUELA PROFESIONAL DE MATEM´ATICA PROGRAMACI´ON GEOM´ETRICA por Naupay Gusukuma, Alvaro Miguel Pr´acticas Pre Profesionales en MATEM´ATICA Mg. Echegaray Castillo, William Carlos Asesor Uni, 29 de Diciembre de 2014
  • 2. ´Indice general 1. Antecedentes hist´oricos 3 2. Programaci´on geom´etrica sin restricciones 5 2.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2. Primeros ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3. Programaci´on geom´etrica sin restricciones. . . . . . . . . . . . . . . . . . . 16 2.4. Ejemplos sin restricciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3. Progamaci´on geom´etrica con restricciones 26 3.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2. Ejemplo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3. Programaci´on geom´etrica con restricciones. . . . . . . . . . . . . . . . . . . 33 Bibliograf´ıa 41 1
  • 3. Agradecimientos Quiero agradecer a m´ıs padres por apoyarme constantemente y a mi asesor por su apoyo incondicional que d´ıa a d´ıa me guia a ser un mejor profesional. 2
  • 4. Cap´ıtulo 1 Antecedentes hist´oricos A Clarence Zener, Director de Ciencias en Westinghouse Electric en Pittsburgh, Pennsylvania, USA, se le acredita como el padre de la Programaci´on Geom´etrica. En 1961, public´o un art´ıculo en el Proceedings del National Academy of Science sobre “A Mathema- tical Aid in Optimizing Engineering Designs”, que es considerado como el primer art´ıculo sobre programaci´on geom´etrica. Clarence Zener es mejor conocido en ingenier´ıa el´ectrica por el diodo Zener. Que mas tarde se asocio con Richard J. Duffin y Elmor L. Peterson del Carnegie Institute of Technology (ahora Carnegie-Mellon University, USA) para escribir el primer libro sobre programaci´on geom´etrica, llamado “Geometric Programming” en 1967. Un reporte fue publicado en Agosto de 1966 por el profesor Douglas Wilde y el estudiante de graduaci´on Ury Passey. El profesor Douglas Wilde del Stanford University y el profe- sor Charles Beightler del University of Texas incluyeron un cap´ıtulo sobre programaci´on geom´etrica en el libro “Fundations of Optimization”. Otros primeros libros por estos l´ıderes fueron “Engineering Design By Geometric Pro- gramming” por Clarence Zener en 1971, “Applied Geometric Programming” por C.S. Beightler y D.T. Phillips en 1976, y la segunda edici´on del “Foundations of Optimiza- tion” por C.S. Beightler, D.T. Phillips y D.Wilde en 1979. Muchos de las aplicaciones iniciales fueron en el ´area del dise˜no de tranformadores cuando Clarence Zener trabajaba para Westinghouse Electric en el ´area de ingenier´ıa qu´ımica, que fu´e el ´area enfatizada por Beightler y Wilde. Tambi´en es importante resaltar que muchos estudiantes de gra- 3
  • 5. duaci´on jugaron un papel importante, a saber Elmor Peterson en el Carnegie Institute of Technology y Ury Passy y Mordecai Avriel en el Stanford University. 4
  • 6. Cap´ıtulo 2 Programaci´on geom´etrica sin restricciones El nombre de programaci´on geom´etrica (P.G.) se debe a que se utiliza la generaliza- ci´on de la desigualdad media aritm´etica geom´etrica para resolver algunos problemas de optimizaci´on. 2.1. Conocimientos previos. Teorema 2.1.1. Sea f : C ⊂ Rn → R una funci´on convexa donde C es un conjunto convexo. Si λ1, λ2, . . . , λk son n´umeros no negativos con suma igual a 1 y si x1, x2, . . . , xk son puntos de C, entonces f k i=1 λixi ≤ k i=1 λif(xi) . (∗) Si f es estrictamente convexa sobre C y si todos los λi’s son positivos, entonces la igualdad en (∗) se cumple si y s´olo si todos los xi’s son iguales. El nombre de Programaci´on Geom´etrica es debido a que esta t´ecnica utiliza variantes de la desigualdad media aritm´etica geom´etrica. A continuaci´on presentamos una de ellas. Teorema 2.1.2. (Desigualdad Media Aritm´etica-Geom´etrica o Desigualdad (A- G)). Si x1, x2, . . . , xn son n´umeros reales positivos y si δ1, δ2, . . . , δn son n´umeros positivos 5
  • 7. cuya suma es uno, entonces n i=1 (xi)δi ≤ n i=1 δixi , (A-G) con la igualdad en (A-G) si y s´olo si x1 = x2 = · · · = xn El producto del lado izquierdo de A-G es llamada media geom´etrica de x1, x2, . . . , xn con pesos δ1, δ2, . . . , δn mientras que la suma de la derecha de A-G es la media aritm´etica de x1, x2, . . . , xn con pesos δ1, δ2, . . . , δn. La desigualdad (A-G) se puede demostrar usando la convexidad en la siguiente manera. Primero, observe que la funci´on f definida para x > 0 por f(x) = − ln x es estrictamente convexa ya que f′′ (x) = 1 x2 > 0. Consecuentemente, si x1, x2, . . . , xn y δ1, δ2, . . . , δn son n´umeros positivos tales que δ1 + δ2 + · · · + δn = 1 entonces (2.1.1) implica que − ln m i=1 δixi = f m i=1 δixi ≤ n i=1 δif(xi) = − n i=1 δi ln xi con la igualdad si y s´olo si todos los xi’s son iguales. La anterior desigualdad es equivalente a ln n i=1 δixi ≥ n i=1 ln(xδi i ) = ln n i=1 xδi i . Consecuentemente, como la funci´on logar´ıtmo y exponencial son estrictamente creciente, obtenemos n i=1 δixi ≥ n i=1 (xi)δi con la igualdad en esta desigualdad si y s´olo si todos los xi’s son iguales. Como veremos, la desigualdad (A-G) es muy adecuada para la soluci´on de una clase considerable de problemas de optimizaci´on no lineal. Antes de intentar identificar esta clase de problemas y formalizar el procedimiento de optimizaci´on, daremos algunos ejemplos en los que se aplica (A-G) para proporcionar la soluci´on algunos problemas est´andares de m´aximos y m´ınimos del c´alculo. 6
  • 8. 2.2. Primeros ejemplos. Ejemplo 2.2.1. Encontrar las dimensiones de una caja rectangular sin tapa con una ´area fija de superficie S0 que tenga volumen m´aximo. Soluci´on: Veamos la figura x1 x2 x3 (x1, x2, x3) Volumen = V = x1x2x3 . ´Area de superficie = S0 = x1x2 + 2x1x3 + 2x2x3 . Por consiguiente, nuestro trabajo es resolver el siguiente problema: Maximizar V (x1, x2, x3) = x1x2x3 , sujeto a x1x2 + 2x1x3 + 2x2x3 = S0 , x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 . En esta forma, al problema se le puede aplicar la desigualdad (A-G) de manera natural. Observe que: S0 = x1x2 + 2x1x3 + 2x2x3 = 3 x1x2 + 2x1x3 + 2x2x3 3 luego utilizando la desigualdad (A-G) tenemos S0 = 3 x1x2 + 2x1x3 + 2x2x3 3 (A-G) ≥ 3((x1x2)1/3 (2x1x3)1/3 (2x2x3)1/3 ) = 3 · 41/3 (x2 1x2 2x2 3)1/3 = 3 · 41/3 V 2/3 Notemos que el valor de V est´a acotado y que esta cota (M´axima) es alcanzada cuando hay igualdad en la desigualdad (A-G), esto es, supongamos que V es maximizado cuando 7
  • 9. x1 = x∗ 1, x2 = x∗ 2 y x3 = x∗ 3, de esto tendriamos que se debe cumplir y teniendo encuenta el teorema 2.1.2 x∗ 1x∗ 2 = 2x∗ 1x∗ 3 = 2x∗ 2x∗ 3 = S0 3 resolviendo esto tenemos que las dimensiones son x∗ 1 = x∗ 2 = S0 3 , x∗ 3 = 1 2 S0 3 , y adem´as el volumen m´aximo de la caja ser´a V0 = x∗ 1x∗ 2x∗ 3 = S 3/2 0 2 · 33/2 . Ejemplo 2.2.2. Encontrar las dimensiones de una caja rectangular sin tapa con volumen fijo V0 que tiene la minima ´area de superficie. Soluci´on: Apoy´andonos en la figura del ejemplo anterior vemos que necesitamos resolver el siguiente problema. Minimizar S(x1, x2, x3) = x1x2 + 2x1x3 + 2x2x3 , sujeto a x1x2x3 = V0 , x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 . procediendo exactamente como en el ejemplo anterior, obtenemos S = x1x2 + 2x1x3 + 2x2x3 = 3 x1x2 + 2x1x3 + 2x2x3 3 (A-G) ≥ 3 · 41/3 V 2/3 0 . Por consiguiente, el valor de S es el menor cuando hay igualdad en la desigualdad (A-G), esto es, S es minimizado cuando x1 = x∗ 1, x2 = x∗ 2 y x3 = x∗ 3 de donde tenemos que (ver teorema 2.1.2) x∗ 1x∗ 2 = 2x∗ 1x∗ 3 = 2x∗ 2x∗ 3 = 3 · 41/3 V 2/3 0 3 = 41/3 V 2/3 0 . Resolviendo esto tenemos que las dimensiones son x∗ 1 = x∗ 2 = 41/6 V 1/3 0 , x∗ 3 = 41/6 V 1/3 0 2 , 8
  • 10. adem´as el ´area m´ınima de la superficie es S0 = x∗ 1x∗ 2 + 2x∗ 1x∗ 3 + 2x∗ 2x∗ 3 = 3 · 4/3 V 2/3 0 . Ejemplo 2.2.3. Maximizar el volumen de una lata cil´ındrica de costo fijo c0 soles si el costo del material, parte superior e inferior de la lata es c1 soles por metro cuadrado y el costo del material, la parte lateral de la lata es de c2 soles por metro cuadrado. Soluci´on: Si r es el radio y h es la altura de la lata en metros cuadrados, entocnes el volumen de la lata es r h V (r, h) = πr2 h y el costo de la lata es c0 = 2πr2 c1 + 2πrhc2 . Entonces vemos que necesitamos resolver el siguiente problema Maximizar V (r, h) = πr2 h , sujeto a 2πr2 c1 + 2πrhc2 = c0 . Ahora podemos proceder como en el ejemplo 2.2.1 , obtendremos c0 = 2πr2 c1 + 2πrhc2 = 4 πr2 c1 2 + πrhc2 2 (A-G) ≥ 4(πr2 c1)1/2 (πrhc2)1/2 = 4πr3/2 h1/2 (c1c2)1/2 . 9
  • 11. Desafortunadamente, a diferencia de la situaci´on en el ejemplo 2.2.1, el t´ermino en el lado derecho de la desigualdad resultante no se reduce a un m´ultiplo constante de una potencia del volumen V, por lo que no se puede proceder como en el ejemplo 2.2.1. Lo que tenemos que hacer es “dividir” c0 en una suma de t´erminos de tal manera que la aplicaci´on de la desigualdad (A-G) produzca un m´ultiplo constante de una potencia de V en el lado derecho. Un poco de experimentaci´on mostrar que tal separaci´on puede llevarse a cabo como sigue: c0 = 2πr2 c1 + πrhc2 + πrhc2 = 3 2πr2 c1 + πrhc2 + πrhc2 3 (A-G) ≥ 3(2πr2 c1)1/3 (πrhc2)1/3 (πrhc2)1/3 = 3(2π)1/3 (c1c2 2)1/3 V 2/3 . Ahora podemos ver que V es el mayor cuando hay igualdad en esta (A-G) desigualdad, esto es, cuando 2πr2 c1 = πrhc2 = πrhc2 = c0 3 , resolviendo tenemos que r = c0 6πc1 , h = c0 3πc2 6πc1 c0 , luego el volumen m´aximo ser´a Vm´ax = √ 6 18π1/2 × c 3/2 0 c 1/2 1 c2 . Sin embargo, queremos se˜nalar un interesante an´alisis de los costos relacionados con nuestra soluci´on del problema: Independientemente de los valores de c1 y c2, el ´optimo de las dimensiones de la lata, asignar 1 3 del coste total a la parte superior e inferior y 2 3 del coste total a la parte lateral. Ejemplo 2.2.4. Minimizar el costo de una lata cil´ındrica de volumen V0 fijo si el costo de la parte superior e inferior de la lata es c1 soles por metro cuadrado y el costo de la parte lateral de la lata es c2 soles por metro cuadrado. 10
  • 12. Soluci´on: Si r y h denotan el radio y la altura de la lata, entonces nuestro problema puede ser formulado como sigue: Minimizar c(r, h) = 2πr2 c1 + 2πrhc2 , sujeto a πr2 h = V0 . r ≥ 0, h ≥ 0 La misma “divisi´on” de la funci´on de costo que usamos en el ejemplo anterior, en combi- naci´on con la desigualdad (A-G), nos da c(r, h) = 2πr2 c1 + πrhc2 + πrhc2 = 3 2πr2 c1 + πrhc2 + πrhc2 3 A-G ≥ 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 . Por lo tanto, el costo es el menor cuando hay igualdad en la desigualdad (A-G), esto es, cuando 2πr2 c1 = πrhc2 = πrhc2 = 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 3 = (2π)1/3 (c1c2 2)1/3 V 2/3 0 . Vemos de nuevo que la asignaci´on de costo ´optimo es 1 3 del costo de la parte superior e inferior y 2 3 del costo de los lados, independientemente de los valores de c1 y c2. Luego resolviendo, las dimensiones del cilindro de costo m´ınimo son r = c 1/3 2 V 1/3 0 21/3π1/3c 1/3 1 , h = 22/3 c 2/3 1 V 1/3 0 π1/3c 2/3 2 , luego el costo ser´a m´ınimo cuando la desigualdad (A-G) sea igualdad, por lo tanto cm´ın = 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 Los pares de ejemplos (2.2.1), (2.2.2) y (2.2.3), (2.2.4) proporcionan nuestros primeros pasos de problemas duales. Los ejemplos anteriores tratan esencialmente con las mismas funciones, excepto que la funci´on objetivo en un problema es la funci´on de restricci´on en el otro, y un problema es de minimizaci´on mientras que el otro es un problema de maximizaci´on. El siguiente ejemplo proporciona una mayor ilustraci´on de la dualidad. 11
  • 13. Ejemplo 2.2.5. Considere el siguiente problema: Maximizar f(x1, x2, x3) = x1x2 2x3 , sujeto a x1 + x2 + x3 3 = k , donde k > 0 es fijo y x1, x2, x3 son n´umeros reales positivos. (P) Soluci´on: En este caso, el problema dual es Minimizar g(x1, x2, x3) = x1 + x2 + x2 3 , sujeto a x1x2 2x3 = c , donde c > 0 es fijo y x1, x2, x3 son n´umeros reales positivos. (D) Desde luego, (P) es tambi´en el problema dual para (D). Para resolver ambos problemas, necesitamos desdoblar x1 + x2 + x2 3 de tal manera que la aplicaci´on de la desigualdad (A-G) produzca un m´ultiplo constante de una potencia adecuada de (x1x2 2x3) en el extremo inferior de la desigualdad. Esto se puede lograr como sigue: k = x1 + x2 + x2 3 = x1 2 + x1 2 + x2 4 + x2 4 + x2 4 + x2 4 + x2 3 = 7   x1 2 + x1 2 + x2 4 + x2 4 + x2 4 + x2 4 + x2 3 7   (A-G) ≥ 7 1 2 2/7 1 4 4/7 (x1x2 2x3)2/7 . La igualdad se cumple en esta desigualdad precisamente cuando x1 2 = x2 4 = x2 3 = k 7 . Para maximizar x1x2 2x3 sujeto a la restricci´on x1 +x2 +x2 3 = k, elegimos los valores ´optimos x∗ 1, x∗ 2, x∗ 3 que fuerzan a la igualdad en la desigualdad (A-G) con el extremo superior de la desigualdad igual a k, esto es, x∗ 1 = 2k 7 , x∗ 2 = 4k 7 , x∗ 3 = k 7 . 12
  • 14. Para minimizar x1 + x2 + x2 3 sujeto a la restricci´on x1x2 2x3 = c, elegir los valores ´optimos x∗ 1, x∗ 2, x∗ 3 que fuerzan a la igualdad en la desigualdad (A-G) con en el extremo inferior de la desigualdad igual a 1 2 2/7 1 4 4/7 c2/7 , esto es, x∗ 1 = 2 1 2 2/7 1 4 4/7 c2/7 , x∗ 2 = 2x∗ 1 , x∗ 3 = 1 2 x∗ 1 . La desigualdad (A-G) puede tambi´en ser usada para resolver algunos problemas de minimizaci´on sin restricciones. El truco es desdoblar la funci´on objetivo de tal manera que la aplicaci´on de la desigualdad (A-G) produzca una constante en el extremo inferior de la desigualdad. Los siguientes ejemplos ilustran el procedimiento. Ejemplo 2.2.6. Encontrar los valores de x > 0 que minimizan la funci´on f(x) = c1x3 + c2 x , donde c1, c2 son constantes positivas. Soluci´on: Para resolver este problema con la desigualdad (A-G), procederemos como si- gue: f(x) = c1x3 + c2 x = c1x3 + 1 3 c2 x + 1 3 c2 x + 1 3 c2 x = 4    c1x3 + 1 3 c2 x + 1 3 c2 x + 1 3 c2 x 4    (A-G) ≥ 4 1 3 3/4 c 1/4 1 c 3/4 2 . Para minimizar f, forzar la igualdad en (A-G). Esto equivale a la elecci´on de x∗ de modo que c1(x∗ )3 = 1 3 c2 x∗ = 1 3 3/4 c 1/4 1 c 3/4 2 . Esto da lugar a x∗ = 1 3 1/4 c −1/4 1 c 1/4 2 como el minimizador. 13
  • 15. En realidad, el ejemplo anterior podr´ıa haber sido f´acilmente resuelto como un problema de c´alculo. El siguiente ejemplo no es f´acil de hacer con los m´etodos de c´alculo, pero es bastante f´acil para una aplicaci´on de la desigualdad (A-G). Ejemplo 2.2.7. Encontrar los minimizadores de f(x1, x2) = 4x1 + x1 x2 2 + 4x2 x1 para x1 > 0, x2 > 0. Soluci´on: Este problema puede resolverse por la desigualdad (A-G) de la siguiente ma- nera: f(x1, x2) = 4     4x1 + x1 x2 2 + 2x2 x1 + 2x2 x1 4     (A-G) ≥ 4(41/4 )(22/4 ) x2 1x2 2 x2 2x2 1 1/4 = 8 . Si forzamos a la igualdad en la desigualdad anterior, vemos que los valores x∗ 1 y x∗ 2 que minimizan f(x1, x2) son dados por 4x∗ 1 = x∗ 1 (x∗ 2)2 = 2x∗ 2 x∗ 1 = 2 , esto es, x∗ 1 = 1 2 , x∗ 2 = 1 2 , y que el m´ınimo valor es 8. Note que este ejemplo no es f´acil de atacar con los m´etodos del c´alculo. De hecho, los puntos cr´ıticos son soluciones del sistema ∂f ∂x1 = 4 + 1 x2 2 − 4x2 x2 1 = 0 , ∂f ∂x2 = − 2x1 x3 2 + 4 x1 = 0 . 14
  • 16. Resolver este sistema por medios no f´aciles y adem´as examinar el Hessiano     8x2 x3 1 − 2 x3 2 − 4 x2 1 − 2 x3 2 − 4 x2 1 6x1 x4 2     esto es una perspectiva ¡aterradora!. Los ejemplos discutidos en esta secci´on ciertamente indican que la desigualdad (A-G) puede ser una herramienta importante para la soluci´on de problemas de optimizaci´on. La ´unica parte de nuestro planteamiento, que no estaba completamente claro era “dividir” o “desdoblar” la funci´on apropiadamente en el extremo superior de la desigualdad (A-G). Hicimos esto f´acilmente por inspecci´on en los ejemplos considerados aqu´ı porque las fun- ciones que consideramos envolvian tres o menos variables. Sin embargo, es aparente que el proceso de dividir (desdoblar) puede ser dif´ıcil de aplicar para funciones con m´as variables. El otro punto en nuestro enfoque que es un poco nebuloso por el momento es el alcance del m´etodo, es decir, todav´ıa tenemos que identificar con precisi´on los tipos de problemas de optimizaci´on que son tratables v´ıa la desigualdad (A-G). Abordaremos estas dos cuestiones en la siguiente secci´on. En particular, vamos a desarrollar un marco formal y un procedi- miento sistem´atico llamado programaci´on geom´etrica aplicando la desigualdad (A-G) a los problemas de optimizaci´on. En programaci´on geom´etrica, el proceso de dividir (desdoblar) que fue desarrollado por inspecci´on en los ejemplos de esta secci´on es sustituido por la so- luci´on de un cierto sistema de ecuaciones lineales determinado por el problema en cuesti´on. Esta sustituci´on da lugar a un procedimiento sistem´atico y pr´actico que se aplicar´a ruti- nariamente a una amplia clase de problemas. Sin embargo, la esencia de la programaci´on geom´etrica se encuentra en las soluciones informales de los ejemplos considerados en esta secci´on, el resto es s´olo una cuesti´on de hacer el procedimiento sistem´atico y rutinario. 15
  • 17. 2.3. Programaci´on geom´etrica sin restricciones. Esta secci´on presenta un procedimiento sistem´atico para manipular problemas de pro- gramaci´on geom´etrica sin restricciones. Como demostramos en la secci´on anterior, es con frecuencia posible resolver estos problemas directamente de la desigualdad (A-G) y por inspecci´on. Sin embargo, algunos problemas son muy complicados para hacerlos de esta manera, y el procedimiento que estamos apunto de discutir entonces viene al rescate. Tambi´en tenemos otro objetivo en mente para esta secci´on. Se habr´a notado ya, que nunca probamos que siempre es posible forzar a la igualdad en la desigualdad (A-G) en los ejemplos de la secci´on anterior. Una vez que hallamos establecido nuestro procedimiento sistem´atico para problemas de programaci´on geom´etrica sin restricciones, probaremos que siempre es posible forzar a la igualdad. Definici´on 2.3.1. Una funci´on g definida para todo t = (t1, . . . , tm) ∈ Rm con tj > 0 para todo j = 1, . . . , m es llamado posinomial si g(t) es de la forma g(t) = n i=1 ci m j=1 (tj)αij , donde los ci’s son constantes positivas y los αij son exponentes reales arbitrarios. As´ı pues, un posinomial es una combinaci´on lineal con coeficientes no negativos de t´erminos que son productos de potencias reales de variables no negativas t1, . . . , tm. Por ejemplo, g(t1, t2) = 3t−1 1 t √ 2 2 + t3 1t 1/2 2 + √ 3t −1/2 1 es un posinomial definido sobre en interior de el primer cuadrante en R2 . El objetivo de la programaci´on geom´etrica sin restricciones es resolver el siguiente pro- 16
  • 18. grama geom´etrico primal: Minimizar el posinomial g(t) = n i=1 ci m j=1 t αij j , (GP) donde t1 > 0, . . . , tm > 0 . Por una soluci´on del (GP) sencillamente nos referimos a un minimizador global t∗ para g sobre el conjunto de vectores t en Rm con componentes positivas. Comenzaremos nuestro ataque sobre el programa (GP) observando que g puede ser reescrito como g(t) = n i=1 δi       ci m j=1 t αij j δi       , donde cada δi se supone que es un n´umero positivo (Condici´on de Positividad). Si a esto a˜nadimos la restricci´on de que n i=1 δi = 1 , (Condici´on de Normalidad) podemos aplicar la desigualdad (A-G) a esta nueva expresi´on de g para obtener g(t) (A-G) ≥ n i=1       ci m j=1 t αij j δi       δi = n i=1 ci δi δi n i=1 m j=1 t αij δi j = n i=1 ci δi δi m j=1 t i αij δi j Por lo tanto, si se impone la restricci´on adicional de que n i=1 αijδj = 0 ; j = 1, . . . , m , (Condici´on de Ortogonalidad) 17
  • 19. entonces la desigualdad anterior nos da el siguiente resultado g(t) ≥ n i=1 ci δi δi . As´ı, si definimos v(δ) = n i=1 ci δi δi entonces los c´alculos anteriores muestran que g(t) ≥ v(δ) (Desigualdad Primal-Dual) para cualquier t ∈ Rm con componentes positivas y cualquier δ ∈ Rn que satisface las Condiciones de Positividad, Normalidad y Ortogonalidad. Estas consideraciones nos lleva a considerar el siguiente programa geom´etrico dual: Maximizar v(δ) = n i=1 ci δi δi , (PGD) sujeto a δ1 > 0, . . . , δn > 0 , (Condici´on de Positividad) n i=1 δi = 1 , (Condici´on de Normalidad) ∀j : n i=1 αijδi = 0 , (Condici´on de Ortogonalidad) Un vector δ ∈ Rn que satisface las Condiciones de Positividad, Normalidad y Ortogonalidad es un vector factible para el (PGD). El programa dual es consistente si el conjunto de vectores factibles para el (PGD) es no vacio. Finalmente, por una soluci´on para el progama dual (PGD) nos referimos a un vector δ∗ ∈ Rn que es un maximizador global para v(δ) sobre el conjunto de vectores factibles para el (PGD). Note que si t∗ es una soluci´on al programa primal (GP) y si δ∗ es una soluci´on al programa dual (PGD), entonces g(t∗ ) ≥ v(δ∗ ) por la desigualdad Primal-Dual. A continuaci´on se muestra, entre otras cosas, que en realidad g(t∗ ) es igual a v(δ∗ ) y que de esta igualdad genera un procedimiento para calcular las soluciones del programa (GP) y (PGD) cuando estos programas tienen soluciones. 18
  • 20. Teorema 2.3.1. Si t∗ = (t∗ 1, . . . , t∗ m) es una soluci´on del programa geom´etrico primal (GP), entonces el correspondiente programa geom´etrico dual (PGD) es consistente. Adem´as, el vector δ∗ = (δ∗ 1, . . . , δ∗ n) definido por δ∗ i = ui(t∗ ) g(t∗) , i = 1, . . . , n (donde ui(t) = cit αij 1 · · · tαim m es el i’´esimo t´ermino de g) es una soluci´on para el (PGD) y la igualdad se cumple en la Desigualdad Primal-Dual, esto es, g(t∗ ) = v(δ∗ ) . Demostraci´on: Un t´ermino t´ıpico de g en (GP) es ui(t) = citαi1 1 · · · tαim m . La derivada parcial de ui(t) respecto de tj tiene un efecto muy simple sobre ui(t), simple- mente se multiplica ui(t) por αij y se reduce el exponente de tj en 1. Esto significa que la siguiente ecuaci´on se cumple: tj ∂ui ∂tj = αijui . Ya que t∗ = (t∗ 1, . . . , t∗ m) es un minimizador para g en (GP), se deduce que 0 = ∂g ∂tj (t∗ ) = n i=1 ∂ui ∂tj (t∗ ) , j = 1, 2, . . . , m . Pero entonces de las observaciones anteriores tenemos que 0 = n i=1 αijui(t∗ ) , j = 1, 2, . . . , m . Ya que g(t∗ ) > 0 (ver (GP)), podemos dividir en ambos lados de la ´ultima ecuaci´on por g(t∗ ) obteniendo 0 = n i=1 αij ui(t∗ ) g(t∗) , j = 1, 2, . . . , m . Consecuentemente, si definimos δ∗ i = ui(t∗ ) g(t∗) , i = 1, . . . , n , 19
  • 21. entonces δ∗ = (δ∗ 1, . . . , δ∗ n) satisfacen la Condici´on de Ortogonalidad para el programa dual (PGD). Por otra parte, δ∗ i > 0 para i = 1, . . . , n por lo que la Condici´on de Positividad es satisfecha. Finalmente, n i=1 δ∗ i = n i=1 ui(t∗ ) g(t∗) = g(t∗ ) g(t∗) = 1 por lo que la Condici´on de Normalidad se cumple. Concluimos que el vector δ∗ es factible para el programa dual, por lo que el programa dual (PGD) es consistente. Adem´as g(t∗ ) = g(t∗ )δ∗ 1 +···+δ∗ n = (g(t∗ ))δ∗ 1 · · ·(g(t∗ ))δ∗ n = u1(t∗ ) δ∗ 1 δ∗ 1 · · · un(t∗ ) δ∗ n δ∗ n = c1 δ∗ 1 δ∗ 1 · · · cn δ∗ n δ∗ n = v(δ∗ ) , asi que se cumple la igualdad en la desigualdad Primal-Dual. Esto implica que δ∗ es una soluci´on del programa dual (PGD). Puesto que δ∗ i = ui(t∗ ) g(t∗) , i = 1, 2, . . . , n , la prueba est´a completa. Con el teorema anterior en manos, podemos formular el siguiente m´etodo para un programa geom´etrico. El procedimiento de Programaci´on Geom´etrica. Dado un programa geom´etrico primal Minimizar el posinomial g(t) = n i=1 ui(t) , (PD) donde ui(t) = citαi1 1 . . . tαim m y ti > 0, . . . , tm > 0; ci > 0 procedemos como sigue: Paso 1. Calcular el conjunto F de vectores facibles para el programa geom´etrico dual 20
  • 22. (PGD), es decir, el conjunto de todos los vectores δ en Rn tales que δ1 > 0, . . . , δn > 0 , (Condici´on de Positivadad) n i=1 δi = 1 , (Condici´on de Normalidad) n i=1 αijδi = 0 ; j = 1, . . . , m (Condici´on de Ortogonalidad) Paso 2. Si el conjunto F de vectores factibles para el (PGD): (a) Es vacio, entonces parar. El programa dado (GP) no tiene soluci´on en este caso; (b) Consta de un s´olo vector δ∗ , entonces δ∗ es un soluci´on del (PGD). Vaya al Paso 4; (c) Consta de m´as de un vector, entonces vaya al Paso 3. Paso 3. Encuentre un vector δ∗ que es un maximizador global para la funci´on dual v(δ) = n i=1 ci δi δi sobre el conjunto F de vectores factibles para el (PGD). Entonces δ∗ es una soluci´on del (PGD). Vaya al Paso 4. Paso 4. Dado una soluci´on δ∗ del (PGD), una soluci´on t∗ del programa primal es obtenido de resolver las ecuaciones δ∗ 1 = ui(t∗ ) v(δ∗) , i = 1, . . . , n , para t∗ 1, . . . , t∗ m. El valor m´ınimo g(t∗ ) de g es igual al valor m´aximo v(δ∗ ) para la funci´on dual v. Comentarios. (1) Para encontrar el conjunto F de vectores factibles para el programa dual, primero re- solver el sistema lineal de ecuaciones que consiste de las Condiciones de Ortogonalidad y Normalidad, y luego imponer la Condici´on de Positividad en la soluci´on resultante. 21
  • 23. (2) La instrucci´on en el Paso 2(a) de que el (GP) no tiene soluciones si el conjunto F de vectores factibles de el programa dual es vacio es consecuencia del Teorema 2.3.1. Porque si (GP) tiene un soluci´on t∗ , entonces el Teorema 2.3.1 afirma que el programa dual es consistente, es decir, F es no vacio. (3) La alternativa “dif´ıcil” es el Paso 2(c) , porque estamos obligados a encontrar un maximizador δ∗ para v en el conjunto F de vectores factibles para (PGD) por alg´un medio. (4) La soluci´on del sistema de ecuaciones prescrito en la Paso 4 parece complicado porque las ecuaciones no son lineales en la variables t∗ 1, . . . , t∗ m. Sin embargo, debido ui(t∗ ) = ci(t∗ 1)αi1 · · · (t∗ m)αim , podemos obtener t∗ 1, . . . , t∗ m resolviendo el sistema de ecuaciones lineales αi1 log t∗ 1 + · · · + αim log t∗ m = log δ∗ i − log ci + log v(δ∗ ) , i = 1, . . . , n . Por lo tanto, el procedimiento sistem´atico para la programaci´on geom´etrica que fue descrito anteriormente es un proceso extremadamente lineal. (5) La i-´esima componente δ∗ i de la soluci´on δ∗ del programa dual (PGD) especifica el aporte realtivo del i-´esimo t´ermino ui(t∗ ) al valor m´ınimo g(t∗ ) del (GP). 2.4. Ejemplos sin restricciones. Ejemplo 2.4.1. Sea c1, c2, c3, c4 y V constantes positivas. Considere el siguiente programa geom´etrico: Minimizar g(t) = c1V t1t2t3 + 2c2t2t3 + 2c3t1t3 + c4t1t2 , donde t1 > 0, t2 > 0, t3 > 0 . 22
  • 24. Soluci´on: Aqu´ı el problema dual es Maximizar V (δ) = c1V δ1 δ1 2c2 δ2 δ2 2c3 δ3 δ3 2c4 δ4 δ4 , sujeto a δ1 + δ2 + δ3 + δ4 = 1 (Condici´on de Normalidad), δi > 0, 1 = 1, 2, 3, 4 (Condici´on de Positividad), −δ1 + + δ3 + δ4 = 0 −δ1 + δ2 + δ4 = 0 −δ1 + δ2 + δ3 = 0      Condici´on de Ortogonalidad   . Si aplicamos el Paso 1 del precedimiento mostrado en secci´on anterior, encontraremos que el vector δ∗ = 2 5 , 1 5 , 1 5 , 1 5 es el ´unico vector factible para el dual, por lo que seguimos la alternativa (b) en el Paso 3. Por consiguiente, podemos encontrar las soluciones t∗ 1, t∗ 2, t∗ 3 resolviendo el sistema. c1V t∗ 1t∗ 2t∗ 3 = δ∗ 1v(δ∗ ) = 2 5 v(δ∗ ) , 2c2t∗ 2t∗ 3 = δ∗ 2v(δ∗ ) = 1 5 v(δ∗ ) , 2c3t∗ 1t∗ 3 = δ∗ 3v(δ∗ ) = 1 5 v(δ∗ ) , c4t∗ 1t∗ 2 = δ∗ 4v(δ∗ ) = 1 5 v(δ∗ ) . Omitiremos el resto de los detalles del c´alculo. Note que las contribuciones relativas de los cuatro t´erminos en g(t∗ ) son 2 5 , 1 5 , 1 5 , 1 5 independiente de los valores de c1, c2, c3, c4. Ejemplo 2.4.2. Considere el programa geom´etrico Minimizar g(t1, t2) = 2 t1t2 + t1t2 + t1 , donde t1 > 0, t2 > 0 . 23
  • 25. Soluci´on: El programa dual es Maximizar v(δ) = 2 δ1 δ1 1 δ2 δ2 1 δ3 δ3 , sujeto a δ1, δ2, δ3 > 0 , δ1 + δ2 + δ3 = 1 , −δ1 + δ2 + δ3 = 0 , −δ1 + δ2 = 0 . Resolviendoe stas ecuaciones, encontramos que la ´unica soluci´on es δ1 = 1 2 , δ2 = 1 2 , y δ3 = 0. Estos vector no es factible para el dual (porque δ3 = 0) y por lo tanto no hay vectores factibles para el dual. Consecuentemente, la alternativa (a) en el Paso 2 nos dice que el programa dado no tiene soluci´on. Ejemplo 2.4.3. Considere el programa geom´etrico Minimizar g(t1, t2) = 1 t1t2 + t1t2 + t1 + t2 , donde t1 > 0, t2 > 0 . Soluci´on: El programa dual es Maximizar v(δ) = 1 δ1 δ1 1 δ2 δ2 1 δ3 δ3 1 δ4 δ4 , sujeto a δ1, δ2, δ3, δ4 > 0 , δ1 + δ2 + δ3 + δ4 = 1 , −δ1 + δ2 + δ3 = 0 , −δ1 + δ2 + δ4 = 0 . 24
  • 26. Un poco de trabajo muestra que este sistema es equivalente al siguiente: δ1 = δ1 > 0 , δ2 = 3δ1 − 1 > 0 , δ3 = 1 − 2δ1 > 0 , δ4 = 1 − 2δ1 > 0 , y estas desigualdades restringen δ1 al rango 1 3 < δ1 < 1 2 . As´ı, la maximizaci´on de v(δ) equivale a la maximizaci´on de f(s) = 1 2 s 1 1 − 2s 1−2s 1 1 − 2s 1−2s 1 3s − 1 3s−1 en el intervalo 1 3 < s < 1 2 . Tomando logaritmos, maximizamos ln f(s) = −s ln 2 − 2(1 − 2s) ln(1 − 2s) − (3s − 1) ln(3s − 1) , que es posible resolver por m´etodos iterativos sin ning´un problema. 25
  • 27. Cap´ıtulo 3 Progamaci´on geom´etrica con restricciones 3.1. Conocimientos previos. Teorema 3.1.1 (Desigualdad Media Aritm´etica-Geom´etrica Extendida). Suponga que x1, . . . , xn son n´umeros positivos. Si δ1, . . . , δn son n´umeros que son todos positivos o todos ceros y si λ = δ1 + · · · + δn, entonces n i=1 xi λ ≥ λλ n i=1 xi δi δi bajo la convenci´on 00 = 1 y (xi/0)0 = 1. La igualdad se cumple en esta desigualdad si y s´olo si δ1 = δ2 = · · · = δn = 0 o xi = δi λ n j=1 xj para i = 1, . . . , n. Demostraci´on: Suponga primero que todos los δi’s son n´umeros positivos. Note que δi/λ es positivo para i = 1, 2, . . . , n y que δ1 λ + δ2 λ + · · · + δn λ = 1 . 26
  • 28. Consequentemente, si aplicamos la desidgualdad Media Aritm´etica Geom´etrica (A-G) Teo- rema 1.2.1 a (λxi)/δi y δi/λ para i = 1, 2, . . . , n, obtenemos n i=1 xi = n i=1 δi λ λxi δi ≥ n i=1 λxi δi δi/λ , cumpliendose la igualdad si y s´olo si λx1 δ1 = λx2 δ2 = · · · = λxn δn . Pero luego n i=1 xi λ ≥ n i=1 λxi δi δi = λλ n i=1 xi δi δi . Por otra parte, si λxi/δi = M para i = 1, 2, . . . , n, entonces n i=2 xi = n i=1 Mδi λ = M λ n i=1 δi = M , luego con λ xi δi = M tenemos que xi = Mδi λ = δi λ n i=1 xi , por lo tanto la condici´on de igualdad se cumple. Finalmente, note que si todos los δi’s son iguales a cero, entonces ambos lados de la desigualdad prescrita son iguales a 1. Esto completa la prueba. La siguiente definici´on describe el marco de la programaci´on geom´etrica con restriccio- nes. 27
  • 29. Definici´on 3.1.1. Suponga que g0, g1, . . . , gk son posinomiales con m-variables reales positivas t = (t1, t2, . . . , tm). Entonces el programa (PG)    Minimizar g0(t) s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0 es llamado un programa geom´etrico con restricciones. La siguiente definici´on define el marco de la programaci´on convexa. Definici´on 3.1.2. Suponga que f, g1, . . . , gm son funcioines real-valuadas definidas sobre un subconjunto C de Rn . (PC)    Minimizar f s.a. g1(x) ≤ 0, g2(x) ≤ 0, . . . , gm(x) ≤ 0 , donde x ∈ C ⊂ Rn . La funci´on f es llamada la funci´on objetivo de (PC) y las desigualdades de funciones g1(x) ≤ 0, . . . , gm(x) ≤ 0 son llamadas las restricciones (desigualdades) para (PC). Un punto x ∈ C que satisface todas las restricciones del programa (PC) es llamado un punto factible para (PC), y el conjunto F de todos los puntos factibles para (PC) es llamado regi´on de factibilidad para (PC). Si la regi´on factible para (PC) es no vacia, diremos que (PC) es consistente. Si hay un punto factible x para (PC) tal que gi(x) < 0 para i = 1, . . . , m, entonces (PC) es superconsistente y el punto x es llamado un punto de Slater para (PC). Teorema 3.1.2 (Karush-Kuhn-Tucker(Forma de Gradiente)). Suponga que (PC) es un programa convexo superconsistente tal que la funci´on objetivo f y las funciones de restricci´on g1, . . . , gm tienen la primera de derivada continua en el conjunto C para (PC). 28
  • 30. Si x∗ es factible para (PC) y es un punto interior de C, entonces x∗ es una soluci´on de (PC) si y s´olo si existe un λ∗ ∈ Rm tal que: (1) λ∗ i ≥ 0 para i = 1, 2, . . . , m; (2) λ∗ i gi(x∗ ) = 0 para i = 1, 2, . . . , m; (3) ∇f(x∗ ) + m i=1 λ∗ i ∇gi(x∗ ) = 0. Teorema 3.1.3. (a) Si f1, . . . , fk son funciones convexas en el conjunto convexo C de Rn , entonces f(x) = f1(x) + f2(x) + · · · + fk(x) es convexa. Adem´as, si al menos uno de los fi es estrictamente convexa en C, entonces la suma f(x) es estrictamente convexa. (b) Si f es convexa (estrictamente convexa) en el conjunto convexo C de Rn y si α es un n´umero positivo, entonces αf es convexo (estrictamente convexo) en C. (c) Si f es una funci´on convexa (estrictamente convexa) definida en un conjunto convexo C de Rn , y si g es una funci´on convexa creciente (estrictamente creciente) definida en el rango de f de R, entonces la funci´on composici´on g ◦ f es convexa (estrictamente convexa) en C. 3.2. Ejemplo. Ejemplo 3.2.1. Considere el siguiente programa Minimizar 40 t1t2t3 + 40t2t3 sujeto a 2t1t3 + t1t2 ≤ 4 , donde t1 > 0, t2 > 0, t3 > 0 . 29
  • 31. Soluci´on: Si dividimos la desigualdad de restricci´on por 4, obtenemos un programa geom´etrico de la forma 3.1.1 con g0(t1, t2, t3) = 40 t1t2t3 + 40t2t3 , g1(t1, t2, t3) = t1t3 2 + t1t2 4 . Ahora procedemos como sigue: Para cualquier λ > 0, (g1(t))λ ≤ 1 as´ı que para cualesquiera δ1 > 0, δ2 > 0, tenemos g0(t) ≥ g0(t)(g1(t))λ = 40 t1t2t3 + 40t2t3 (g1(t))λ = δ1 40 δ1t1t2t3 + δ2 40t2t3 δ2 (g1(t))λ . Si ahora imponemos la restricci´on de que δ1 + δ2 = 1 y aplicamos la Desigualdad Media Aritm´etica-Geom´etrica Teorema 2.1.2, obtenemos g0(t) ≥ 40 δ1t1t2t3 δ1 40t2t3 δ2 δ2 (g1(t))λ = 40 δ1 δ1 40 δ2 δ2 (t1)−δ1 (t2)(−δ1+δ2) (t3)(−δ1+δ2) (g1(t))λ . Luego, nos enfocamos en el factor (g1(t))λ en la ´ultima expresi´on y aplicamos la Desigualdad Media Aritm´etica Geom´etrica Extendida Teorema 3.1.1, luego tenemos g1(t)λ = t1t3 2 + t1t2 4 λ ≥ λλ t1t3 2δ3 δ3 t1t2 4δ4 δ4 = λλ 1 2δ3 δ3 1 4δ4 δ4 t (δ3+δ4) 1 tδ4 2 tδ3 3 , siempre que λ = δ3 + δ4. Si combinamos las conclusiones de los c´alculos anteriores, vemos que g0(t) ≥ 40 δ1 δ1 40 δ2 δ2 1 2δ3 δ3 1 4δ4 δ4 (δ3 + δ4)δ3+δ4 = v(δ1, δ2, δ3, δ4) 30
  • 32. siempre que δ1 + δ2 = 1 , δ3 + δ4 = λ , −δ1 + δ3 + δ4 = 0 , −δ1 + δ2 + δ4 = 0 , −δ1 + δ2 + δ3 = 0 , δ1 > 0, δ2 > 0, δ3 > 0, δ4 > 0 . (Las tres ´ultimas ecuaciones resultan de igualar los exponentes de t1, t2, t3 a cero.) Este sistema tiene la soluci´on ´unica δ∗ 1 = 2 3 , δ∗ 2 = 1 3 , δ∗ 3 = 1 3 , δ∗ 4 = 1 3 , y el correspondiente valor de v(δ1, δ2, δ3, δ4) es v 2 3 , 1 3 , 1 3 , 1 3 = 60 . As´ı, 60 es una cota inferior para el valor de g0 sujeto a la restricci´on g1(t) ≤ 1. Encon- trar el valor m´ınimo de g0 y un minimizador t∗ = (t∗ 1, t∗ 2, t∗ 3) que conduce a este valor m´ınimo, buscamos esos valores t∗ 1, t∗ 2, t∗ 3 que fuerzan a la igualdad en las Desigualdades Media-Geom´etrica de 2.1.2 y 3.1.1 y simult´aneamente en la restricci´on g1(t) ≤ 1. Si po- demos encontrar tales t∗ 1, t∗ 2, t∗ 3, entonces sabremos que el m´ınimo de g0(t) sujeto a esta restricci´on es actualmente 60 y que t∗ = (t∗ 1, t∗ 2, t∗ 3) es el punto minimizador. Las condiciones de igualdad para las Desigualdades Media Geom´etrica Aritm´etica 2.1.2 y 3.1.1 implican que 40 2 3 t∗ 1t∗ 2t∗ 3 = 40t∗ 2t∗ 3 1 3 = 60 , t∗ 1t∗ 3 2 3 = t∗ 1t∗ 2 4 3 = K . (¿Por qu´e los dos t´erminos en la primera ecuaci´on es igual a 60?) Ya que δ∗ 3, δ∗ 4 son positivos, la igualdad se debe tener en la restricci´on g1(t) ≤ 1 de modo que 1 = δ3K + δ4K = 2 3 K , 31
  • 33. y por lo tanto K = 3 2 . Estas consideraciones nos llevan al siguiente sistema de ecuaciones: t∗ 1t∗ 2t∗ 3 = 1 , 2t∗ 2t∗ 3 = 1 , t∗ 1t∗ 3 = 1 , t∗ 1t∗ 2 = 2 . Podemos convertir este sistema a un sistema de ecuaciones lineales en log t∗ 1, log t∗ 2, log t∗ 3 tomando logaritmos log t∗ 1 + log t∗ 2 + log t∗ 3 = 0 , log t∗ 2 + log t∗ 3 = − log 2 , log t∗ 1 + log t∗ 3 = 0 , log t∗ 1 + log t∗ 2 = log 2 . Resolviendo este ´ultimo sistema tenemos que la ´unica soluci´on es t∗ 1 = 2, t∗ 2 = 1 y t∗ 3 = 1 2 , que son los valores que minimizan el problema inicial. Comentarios sobre el problema anterior: Resolvimos el programa geom´etrico del ejemplo anterior aplicando la Desigualdad Media Geom´etrica Aritm´etica 2.1.2 a la funci´on obgetivo g0(t) y la Desigualdad Media Geom´etrica Aritm´etica Extendida 3.1.1 a la restric- ci´on g1(t) ≤ 1. ¿Qu´e pasar´ıa si hubi´eramos aplicado 2.1.2 a las dos funciones?. Esto habr´ıa resultado en el siguiente sistema de ecuaciones de δ1, δ2, δ3, δ4: δ1 + δ2 = 1 , δ3 + δ4 = 1 , −δ1 + δ3 + δ4 = 0 , −δ1 + δ2 + δ4 = 0 , −δ1 + δ2 + δ3 = 0 . Este es un sistema de ecuaciones inconsistente. En otra palabras, si usamos 2.1.2 en las funciones objetivo y de restricci´on, y si a continuaci´on a˜nadimos las ecuacionies resultan- 32
  • 34. tes de establecer los exponentes de t1, t2, t3 iguales a cero, se han impuesto demasiadas restricciones sobre δ1, δ2, δ3, δ4. Con la ayuda del Teorema de Karush-Kuhn-Tucker, podemos mostrar que la t´ecnica aplicada al problema anterior funciona realmente, en general. 3.3. Programaci´on geom´etrica con restricciones. Ahora desarrollaremos la t´ecnica mostradad en la secci´on anterior en el contexto general de la programaci´on geom´etrica con restricciones (PG) definido en 3.1.1. Debido a que cada uno de los k + 1 posinomiales en el programa geom´etrico con res- triccioines est´andar (PG) Definici´on 3.1.1 puede consistir de varios t´erminos, tenemos que organizar todos los t´erminos de manera que la notaci´on resultante sea simple y descriptiva. Una forma razonable de hacerlo es empezar por contar los t´erminos de la funci´on objetivo g0(t) de izquierda a derecha, enumer´andolos desde 1 hasta n0, y luego continuar contando los t´erminos de la primera restricci´on posinomial g1(t) de izquierda a derecha, enumeran- dolos desde n0 + 1 hasta n1, y as´ı sucesivamente hasta contar los t´erminos de la ´ultima restricci´on posinomial gk(t) de izquierda a derecha, enumerandolos desde nk−1 + 1 hasta nk = p. El t´ermino j’´esimo en este esquema de recuento se indica como sigue: uj(t) = cjt αj1 1 t αj2 2 . . . tαjm m . Con este esquema notacional, podemos reescribir el programa geom´etrico con restricciones 33
  • 35. est´andar (GP) como (GP)    Minimizar g0(t) = u1(t) + · · · + un0 (t) sujeto a las restricciones g1(t) = un0+1(t) + · · · + un1 (t) ≤ 1 , · · · · · · · · ·· · · · · · · · · · · · · · · · · · · · · · · · · · ·· · · · · · · · · · · · · · · · · · gk(t) = unk−1+1(t) + · · · + unk (t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0, y nk = p . La aplicaci´on de la Desigualdades Media Geom´etrica Aritm´etica 2.1.2 y 3.1.1 s´olo a las funciones g0(t), g1(t), . . . , gk(t) como en el ejemplo de la secci´on anterior 3.2.1 nos lleva a considerar el siguiente programa: (PGD)    Maximizar v(δ) = p j=1 cj δj δj k i=1 λi(δ)λi(δ) sujeto a las restricciones δ1 + · · · + δn0 = 1 , α11δ1 + · · · + αp1δp = 0 , ... ... ... ... α1mδ1 + · · · + αpmδp = 0 , donde δi > 0 para i = 1, . . . , n0, y para cada k ≥ 1, ya sea δi > 0 para todo i con nk−1 + 1 ≤ i ≤ nk o δi = 0 para todo i con nk−1 + 1 ≤ i ≤ nk. Donde, λi(δ) = δni−1+1 + · · · + δni . El programa (PGD) es llamado el programa dual del (GP), la funci´on v(δ) es la funci´on objetivo dual y las restricciones en (PGD) son las restricciones dual. Si δ1, δ2, . . . , δp son n´umeros que satisfacen las restricciones dual en (PGD), entonces δ = (δ1, . . . , δp) es un vector fatible para (PGD) y el (PGD) se dice que es consistente. Un vector δ∗ = (δ∗ 1, . . . , δ∗ p) 34
  • 36. que maximiza v(δ) en el conjunto de vectores factibles para (PGD) es una soluci´on de (PGD). Para el programa geom´etrico con restricciones considerado en el ejemplo de la secci´on anterior, hay cuatro variables duales δ1, δ2, δ3, δ4 porque la funci´on objetivo y la ´unica funci´on de restricci´on cada una contienen dos t´erminos. Hay un y s´olo vector δ = 2 3 , 1 3 , 1 3 , 1 3 que es factible para (PGD) por lo que es autom´aticamente una soluci´on de (PGD). En general, el n´umero de variables dual en (PGD) es igual al n´umero total p(= nk) de t´erminos en las funciones de restricci´on y objetivo de (GP). Note que las ecuaciones de restricci´on en (PGD) son lineales, por lo que el problema de identificar los vectores factibles de (PGD) se reduce a encontrar las soluciones del sistema de ecuaciones lineales que tiene componentes no negativos. Tambi´en note que λi(δ) es simplimente la suma de las componentes de δ que corresponden a los t´erminos de la i’´esima funci´on de restricci´on gi(t) para i = 1, 2, . . . , k. Antes de proceder al desarrollo de la relaci´on entre las soluciones del programa (GP) y el correspondiente programa dual (PGD), vamos a resolver el dual de otro programa geom´etrico concreto. Ejemplo 3.3.1. Considere el programa geom´etrico. Minimizar t1t−1 2 t2 3 sujeto a las restricciones 1 2 t3 1t2t−1 3 ≤ 1 , 1 4 t −1/2 1 + 1 4 t −1/2 2 + 1 4 t3 ≤ 1 , donde t1 > 0, t2 > 0, t3 > 0 . Soluci´on: La funci´on objetivo y las dos restricciones contienen un total de 5 t´erminos por 35
  • 37. lo que hay 5 variables duales. las restricciones duales son δ1 = 1 , δ1 + 3δ2 − 1 2 δ3 = 0 , −δ1 + δ2 − 1 2 δ4 = 0 , 2δ1 − δ2 + δ5 = 0 , donde δ1 > 0, δ2 ≥ 0, δ3 ≥ 0, δ4 ≥ 0, δ5 ≥ 0, y la funci´on objetivo dual es v(δ) = 1 δ1 δ1 1 2δ2 δ2 1 4δ3 δ3 1 4δ4 δ4 1 4δ5 δ5 (δ2)δ2 (δ3 + δ4 + δ5)δ3+δ4+δ5 El programa dado es consistente; de hecho, es incluso superconsistente porque, por ejemplo, los valores t1 = 1, t2 = 1, t3 = 1 satisfacen ambas restricciones con desigualdades estrictas. El programa dual es consistente; de hecho, es materia rutinaria verificar que la soluci´on general de las cuatro ecuaciones de restricci´on dual son δ1 = 1, δ2 = − 1 3 + 1 6 r, δ3 = r, δ4 = − 8 3 + 1 3 r, δ5 = − 7 3 + 1 6 r , donde r es un n´umero real arbitrario. Los requisito de que δi ≥ 0 para i = 1, 2, 3, 4, 5 a˜nade la restricci´onadicional de que r ≥ 14 As´ı, el conjunto de puntos factibles para el programa dual es F = 1, − 1 3 , r, − 1 8 + 1 3 r , − 7 3 + 1 6 r : r ≥ 14 . El teorema de Karush-Khun-Tucker no parece ser apliclable a los programas geom´etri- cos, porque los posinomiales no necesariamente son funciones convexas. Por ejemplo, el posinomial en un variable g(t) = t1/2 , t > 0 , 36
  • 38. no es convexo. Sin embargo, cualquier posinomial g(t) puede ser transformado en una funci´on convexa h(x) por los cambios de variables tj = exj , j = 1, 2, . . . , m . (∗) M´as precisamente, si el cambio de variables (∗) es aplicado al posinomial g(t) = n i=1 citαi1 1 tαi2 2 . . . tαim m , ci > 0 , la correspondiente funci´on de x = (x1, x2, . . . , xm) es h(x) = n i=1 cie m j=1 αij xj , y h(x) es convexo en Rn en virtud del Teorema 3.1.3. Esta observaci´on nos permite transformar el programa geom´etrico con restricciones est´andar (PG)    Minimizar g0 s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0 en un programa convexo asociado (GP)∗    Minimizar h0(x) sujeto a las restricciones h1(x) − 1 ≤ 0, h2(x) − 1 ≤, . . . , hk(x) − 1 ≤ 0 , donde x ∈ Rm , via los cambios de variables ti = exi para i = 1, 2, . . . , m. Es mas, porque t = ex es una funci´on estrictamente convexa. Los programas (GP) y (GP)∗ son equivalentes en el sentido de que t∗ = (t∗ 1, t∗ 2, . . . , t∗ m) es una soluci´on para (GP) si y s´olo si x∗ = (x∗ 1x∗ 2, . . . , x∗ m) es una soluci´on de (GP)∗ donde t∗ i = ex∗ i para i = 1, 2, . . . , m. Estamos preparados para enunciar y demostrar el resultado central en la teor´ıa de programaci´on geom´etrica con restricciones. Teorema 3.3.1. 37
  • 39. (1) Si t es un vector factible para el programa geom´etrico con restricciones (GP) y si δ es un vector factible para el programa dual correspondiente (PGD), entonces g0(t) ≥ v(δ) (la Desigualdad Primal − Dual) . (2) Supongamos que el programa geom´etrico con restricciones (GP) es superconsistente y que t∗ es una soluci´on para (GP). Entonces el correspondiente programa dual (PGD) es consistente y tiene una soluci´on δ∗ que satisface g0(t∗ ) = v(δ∗ ) , y δ∗ i =    ui(t∗ ) g0(t∗) , i = 1, . . . , n0 , λj(δ∗ )ui(t∗ ) , i = nj−1 + 1, . . . , nj ; j = 1, . . . , k . Demostraci´on: (1) La Desigualdad Primal-Dual sigue inmediatamente de la definici´on de el programa dual (PGD) y las Desigualdades Media Aritm´etica-Geom´etrica 2.1.2 y 3.1.1. (2) Ya que (GP) es superconsistente, por lo que es el programa convexo asociado de (GP)∗ . Tambi´en desde que (GP) tiene una soluci´on t∗ = (t∗ 1, t∗ 2, . . . , t∗ m), el programa convexo asociado (GP)∗ tiene una soluci´on x∗ = (x∗ 1, x∗ 2, . . . , x∗ m) dada por x∗ i = ln t∗ i , i = 1, 2, . . . , m . De acuerdo al Teorema de Karush-Kuhn-Tucker 3.1.2, existe un vector λ∗ = (λ∗ 1, . . . , λ∗ k) tal que: (a) λ∗ i ≥ 0 para i = 1, 2, . . . , k; (b) λ∗ i (hi(x∗ ) − 1) = 0 para i = 1, 2, . . . , k; (c) ∂h0 ∂xj (x∗ ) + k i=1 λ∗ i ∂hi ∂xj (x∗ ) = 0 para j = 1, . . . , m. 38
  • 40. porque ti = exi para i = 1, . . . , m, se deduce que para i = 0, 1, . . . , k ∂hi ∂xj = ∂hi ∂tj dtj dxj = ∂gi ∂tj exj , as´ı la condici´on (c) es equivalente a ∂g0 ∂tj (t∗ ) + k i=1 λ∗ i ∂gi ∂tj (t∗ ) = 0 , j = 1, 2, . . . , m (c’) ya que exj > 0 para j = 1, . . . , m. Pero t∗ j > 0 para j = 1, 2, . . . , m, por lo que (c’) es equivalente a t∗ j ∂g0 ∂tj (t∗ ) + k i=1 λ∗ i t∗ j ∂gi ∂tj (t∗ ) = 0 , j = 1, . . . , m . (c”) Porque los t´erminos de gi(t) son de la forma uq(t) = cqt αq1 1 t αq2 2 . . . tαqm m , es claro que t∗ j ∂gi ∂tj (t∗ ) = ni q=ni−1+1 αqjuq(t∗ ) , j = 1, . . . , m , as´ı (c”) implica que 0 = n0 q=1 αqjuq(t∗ ) + k r=1 nr q=nr−1+1 λ∗ rαqjuq(t∗ ) . si dividimos la ´ultima ecuaci´on por g0(t∗ ) = n0 q=1 uq(t∗ ) , obtenemos 0 = n0 q=1 αqj uq(t∗ ) g0(t∗) + k r=1 nr q=nr−1+1 αqj λ∗ ruq(t∗ ) g0(t∗) . Definir el vector δ∗ por δ∗ q =    uq(t∗ ) g0(t∗) , q = 1, 2, . . . , n0 , λ∗ ruq(t∗ ) g0(t∗) , q = nr−1 + 1, . . . , nr, r = 1, . . . , k . 39
  • 41. Note que δ∗ q > 0 para q = 1, 2, . . . , n0 y que, para cada r ≥ 1, ya sea δ∗ i > 0 para todo i con nr−1 + 1 ≤ i ≤ nr o δ∗ i = 0 para todo i con nr−1 + 1 ≤ i ≤ nr de acuerdo al correspondiente multiplicador λ∗ r de Karush-kuhn-Tucker, es positivo o cero. Tambi´en observe que el vector δ∗ satisface todas las m ecuaciones de restricci´on exponenciales en (PGD) as´ı como la restricci´on n0 q=1 δ∗ q = n0 q=1 uq(t∗ ) g0(t∗) = 1 . Por lo tanto, δ∗ = (δ∗ 1, . . . , δ∗ p) es un vector factible para (PGD). Los multiplicadores λ∗ r de Karush-kuhn-Tucker est´an relacionados con las correspon- dientes λr(δ∗ ) en (PGD) com sigue: λr(δ∗ ) = nr q=nr−1+1 δ∗ q nr q=nr−1+1 λ∗ r uq(t∗ ) g0(t∗) = λ∗ r gr(t∗ ) g0(t∗) para r = 1, . . . , k. La condici´on (b) de Karush-Kuhn-Tucker nos da λ∗ r(gr(t∗ ) − 1) = 0 , r = 1, . . . , k , (b’) por lo que λ∗ rgr(t∗ ) = λ∗ r para r = 1, . . . , k. Por lo tanto, para r = 1, . . . , k y q = nr−1 + 1, . . . , nr, vemos que δ∗ q = λ∗ ruq(t∗ ) g0(t∗) = λ∗ rgr(t∗ )uq(t∗ ) g0(t∗) = λr(δ∗ )uq(t∗ ) . (∗) El hecho de que δ∗ es factible en (PGD) y que t∗ es factible en (GP) implica que g0(t∗ ) ≥ v(t∗ ) debido a la Desigualdad Prima-Dual (1). Por otra parte, los valores de δ∗ q en q = 1, 2, . . . , p son precisamente los que fuerzan a la igualdad en las Desigualdades Media Aritm´etica-Geom´etrica 2.1.2 y 3.1.1 que se utiliza para obtener la Desigualdad de Dualidad. Finalmente, la ecuaci´on (b’) muestra que o bien gr(t∗ ) = 1 o λ∗ r = 0 para r = 1, 2, . . . , k y la ecuaci´on (∗) muestra que λ∗ r = 0 si y s´olo si λr(δ∗ ) = 0 para r = 1, . . . , k. Esto significa que los valores de δ∗ q en ralidad fuerzan a la igualdad en la Desigualdad Prima-Dual. Esto completa la demostraci´on. 40
  • 42. La segunda afirmaci´on del teorema anterior implica que si (GP) es un programa geom´etrico superconsistente para el cual el dual (PGD) es no consistente, entonces (GP) no tiene soluci´on. 41
  • 43. Bibliograf´ıa [1] R.J. Duffin, E.L. Peterson, and C. Zener. Geometric Programming, Wiley, New York, 1967 [2] M. Avriel and D.J. Wilde. Optimal condenser design by geometric programming, Ind. Eng. Chem. Process Des. Develop. 6 (1967), 256-263. [3] M. Avriel. Fudamentals of geometric, in Applications of Mathematical Programming Techniques, (E.M.L. Beale, ed.), American Elsevier, New York, 1970, pp. 295-316. [4] E. Peterson. The Origins of Geometric Programming. Annals of Operations Research 105, pp. 15-19, 2001. [5] Robert C. Creese. Geometric Programming for Design and Cost Optimization. Morgan & Claypool Publisher, 2010. [6] Mung Chaing,. Goemetric Programming for Communication Systems. now Publisher, 2010. [7] Stephen Boyd, Seung Jean Kim. A tutorial on geometric programming. Opt. Eng. (2007) 8: pp. 67-127. [8] O. G¨uler. Fundations of Optimization. Springer. 2010. [9] M. Avriel, A.C.Williams. An Extension of Geometric Programming with Applications in Engineering Optimization. Journal of Engineering Mathematics, Vol. 5, No. 3. pp. 187-194. 1971. 42