SlideShare une entreprise Scribd logo
1  sur  20
Relajación Lagrangiana
• LaGrange lo inventó en el año 1797.
• Desde su creación este método ha sido la técnica de
acotación preferida, hasta los años 1990 donde apareció la
técnica de Branch and Price.
Historia
Descripción del Método
• Consiste en relajar un problema de optimización.
• Busca remover la restricción mala y colocarla en la función
objetivo para resolver más fácil el problema.
• Se coloca una restricción en la función objetivo como
penalización. Se le asigna un peso a esa penalización con el
multiplicador de Lagrange.
• Se usa principalmente en problemas de optimización discreta
y en particular en problemas de redes
Descripción del Método
Gráficamente
Z*(x*)
L(λ) | x=x₁ L(λ) | x=x₂
L(λ) | x=x₃
L(λ) | x=x₄
λ
L(λ)
λ*
Min L(λ)•L(λ) esta restringido por los
valores que pueden tomar las
variables xⁿ.
•Para un x fijo se trazan las
recta con λ variable que
limitan la función L(λ).
•Se busca el mínimo de la
función.
¿Cómo encontramos el
lambda que nos ubica en el
mínimo?
Método del Subgradiente
Z*(x*)
λ
L(λ)
λ*
Min L(λ)
λⁿ⁺¹=[λⁿ+Ѳⁿ (b-Axⁿ)]⁺
⁺ :representa la parte positiva,
será 0 si es que es negativo.
UB: Es un valor factible de Z(x)
b-Axⁿ: Restricción relajada.
µ=Tamaño de salto de la
iteración.
µ Grandeµ Chico
Ventajas
• Se aplica a cada descomposición de un modelo y llega a una
muy aproximada solución por resolver problemas mas bien
generales que de solución única.
• Resuelve núcleos de sub-problemas como modelos
independientes.
• La solución Lagrangiana aproximada puede tomar las ventajas
de varios algoritmos conocidos.
• Permite desarrollar límites sobre el valor de la función
objetivo óptima de manera rápida.
• Idear métodos en base a una heurística efectiva para resolver
problemas de optimización combinatorial compleja y
programación entera.
Restricciones del Método
• El problema relajado sea más sencillo de resolver que el
problema original puesto que podría ser necesario resolverlo
muchas veces.
• El otro factor consiste en que la relajación debe ser buena en
el sentido de que el valor de la solución del problema relajado
debe ser suficientemente cercano al del problema original.
• Un problema min{g(y) : y Ŷ R} es una relajación del∈ ⊆
problema min{f(y) : y Y R} si y sólo si Y Ŷ y f(y) ≤ g(y) para∈ ⊆ ⊆
todo y Y∈
Aplicaciones Clásicas
Tópico Integración de Estructura de Red
Redes con lados limitantes • Flujo de costo mínimo
• Camino más corto
Problema del Vendedor Viajero • Asignación de problema
• Flujo de costo mínimo
Ruta Vehicular • Asignación del problema
• Una variante mínima de árbol de
expansión
Diseño de Redes • Camino más corto
Two-duty operator scheduling • Camino más corto
• Flujo de costo mínimo
Árbol de expansión de grado limitado • Árbol de expansión mínimo
Plan de Producción multi-item • Camino más corto
• Flujo de costo mínimo
• Programas dinámicos
Discución calidad del método
• Es muy barato y tiene un corto tiempo de resolución, ya que
no pretende conseguir la optimalidad, sino que busca cotas o
soluciones infactibles que se acerquen al óptimo.
• A pesar de esto en gran número de casos se encuentra el
óptimo a un bajo costo.
• Permite usar la cotas encontradas para comparar los GAP de
distintas heurísticas de manera más exacta que la relajación
lineal.
Aplicación en instancia de prueba
• Se tiene el siguiente grafo con las distancias en los arcos y la
demanda en el nodo.
• El objetivo es maximizar la demanda cubierta localizando
solamente 2 centros de distribución, tomando como
consideración que cada centro tiene un radio de cobertura de
20 km.
• Como se muestra a continuación…
Aplicación en instancia de prueba
Aplicación en instancia de prueba
Parámetro Variables
Ai,j= 1 si es que el nodo i cubre al
j, 0 en otro caso.
Dj=Demanda centro j.
N=número de centros a localizar.
Xj=1 si es que se localiza en j, 0 en
otro caso.
Yj=1 si el nodo j es atendido, 0 en
otro caso.
Suma la demanda de los
nodos atendidos
Un centro es atendido solo si
ese centro o alguno a menos
de 20 km es atendido
No puede localizarse más
de N centros.
Restricción a relajar !
Aplicación en instancia de prueba
Lagrangeano:
a b c d e f g h i
a 1 1 0 0 0 0 0 1 0
b 1 1 0 0 0 0 0 0 1
c 0 0 1 1 0 0 0 0 0
d 0 0 1 1 1 0 0 0 1
e 0 0 0 1 1 0 0 0 0
f 0 0 0 0 0 1 1 0 1
g 0 0 0 0 0 1 1 1 0
h 1 0 0 0 0 0 1 1 1
i 0 1 0 1 0 1 0 1 1
Aplicación en instancia de prueba
Ahora para el caso puntual de nuestro problema, se hace la matriz con los
valores de Ai,j para un radio de cobertura de 20 km. Luego para la resolución
se utiliza solver de Excel para los distintos valores de µ.
Ai,j:
11
17
21
31
15
14
21
12
11 26
182516
19
34 19
C
D
EFG
H I
1215 23
40
28
18 32
17
20
A B
Nodo i es el que más
atiende, por tanto es un
claro candidato y es
bueno incluirlo en la
solución inicial.
(Heurística Greedy para
sol. inicial)
Aplicación en instancia de prueba
Restricción Relajada:
Para nuestro caso:
µ
d,e,h,i d,h,i
d,i
30 50
i
Penaliza a la funciónCalza el min. de L(µ) con
max. Z(x) ya que la
penalización desaparece.
Z*(x*)
205 -
L(µ)
Multiplicador tan
grande que
conviene que la
resta sea positiva
localizando menos
centros
Aplicación en instancia de prueba
Resumen de resultados:
Lamda Min L Localizaciones Cobertura
0 205 d,e,h,i todos
10 190 d,e,h,i todos
15 190 d,h,i todos
30 175 d,h,i todos
32 173 d,h,i todos
34 172 d,i
b,c,d,e,f,h,
i
40 172 d,i
b,c,d,e,f,h,
i
50 172 d,i
b,c,d,e,f,h,
i
70 190 i b,d,f,h,i
Aplicación en instancia de prueba
Para los valores de lamda entre 32 y 50 se logra el
mínimo. La solución de el min L(µ) es la misma que la del
máx Z(X), ya que consideran los mismos valores optímales
de x, valores donde la penalización es 0, puesto que (N-
Xj)=0. La penalización se mantiene así desde el 32 hasta el
50, manteniendo el mínimo.
Conclusiones
• El método de Relajación Lagrangiana, es de gran utilidad para
resolver problemas de forma rápida con bajos recursos.
• Consigue óptimos en algunos casos, o cotas mejores que la de
la relajación lineal, permitiendo la comparación de
heurísticas.
• Se adapta al problema del usuario, pues nosotros elegimos
que restricción relajar.
FIN
Sus aplicaciones son infinitas ! Solo basta relajar
¿Preguntas?

Contenu connexe

Tendances

Método de aproximación de vogel algoritmos
Método de aproximación de vogel algoritmosMétodo de aproximación de vogel algoritmos
Método de aproximación de vogel algoritmos
Erick Díaz Sánchez
 
Casos especiales del metodo simplex
Casos especiales del metodo simplexCasos especiales del metodo simplex
Casos especiales del metodo simplex
bkike
 
Metodo Simplex
Metodo SimplexMetodo Simplex
Metodo Simplex
Isabel
 
Semana 6.7 modelo de trasbordo
Semana 6.7 modelo de trasbordoSemana 6.7 modelo de trasbordo
Semana 6.7 modelo de trasbordo
adik barreto
 
Flujo a costo minimo
Flujo a costo minimoFlujo a costo minimo
Flujo a costo minimo
eduardo307
 
Metodo simplex en dos fases
Metodo simplex en dos fasesMetodo simplex en dos fases
Metodo simplex en dos fases
Luis Salazar
 
Programacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion DefinitivoProgramacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion Definitivo
wadar3
 

Tendances (20)

Problema de la ruta mas corta
Problema de la ruta mas cortaProblema de la ruta mas corta
Problema de la ruta mas corta
 
Método de aproximación de vogel algoritmos
Método de aproximación de vogel algoritmosMétodo de aproximación de vogel algoritmos
Método de aproximación de vogel algoritmos
 
Clase 18. arbol de minima expansión
Clase 18. arbol de minima expansiónClase 18. arbol de minima expansión
Clase 18. arbol de minima expansión
 
Casos especiales del metodo simplex
Casos especiales del metodo simplexCasos especiales del metodo simplex
Casos especiales del metodo simplex
 
PROGRAMACION LINEAL - METODO SIMPLEX
PROGRAMACION LINEAL - METODO SIMPLEXPROGRAMACION LINEAL - METODO SIMPLEX
PROGRAMACION LINEAL - METODO SIMPLEX
 
Ejercicios de Modelo de Redes
Ejercicios de Modelo de RedesEjercicios de Modelo de Redes
Ejercicios de Modelo de Redes
 
Metodo Simplex
Metodo SimplexMetodo Simplex
Metodo Simplex
 
Método gráfico
Método gráficoMétodo gráfico
Método gráfico
 
Problemas redes
Problemas redesProblemas redes
Problemas redes
 
Modelo de redes
Modelo de redes Modelo de redes
Modelo de redes
 
Algoritmo Heap Sort
Algoritmo Heap SortAlgoritmo Heap Sort
Algoritmo Heap Sort
 
Semana 6.7 modelo de trasbordo
Semana 6.7 modelo de trasbordoSemana 6.7 modelo de trasbordo
Semana 6.7 modelo de trasbordo
 
Flujo a costo minimo
Flujo a costo minimoFlujo a costo minimo
Flujo a costo minimo
 
Metodo simplex en dos fases
Metodo simplex en dos fasesMetodo simplex en dos fases
Metodo simplex en dos fases
 
Programacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion DefinitivoProgramacion Convexa Presentacion Definitivo
Programacion Convexa Presentacion Definitivo
 
Vbtora98
Vbtora98Vbtora98
Vbtora98
 
Método de lagrange
Método de lagrangeMétodo de lagrange
Método de lagrange
 
VECTOR TANGENTE NORMAL Y BINORMAL
VECTOR TANGENTE NORMAL Y BINORMALVECTOR TANGENTE NORMAL Y BINORMAL
VECTOR TANGENTE NORMAL Y BINORMAL
 
INVESTIGACIÓN DE OPERACIONES notas
INVESTIGACIÓN DE OPERACIONES notasINVESTIGACIÓN DE OPERACIONES notas
INVESTIGACIÓN DE OPERACIONES notas
 
Metodo simplex
Metodo simplexMetodo simplex
Metodo simplex
 

Similaire à Relajacion lagrangiana

Manual.ioii
Manual.ioiiManual.ioii
Manual.ioii
edgar
 

Similaire à Relajacion lagrangiana (20)

Programacion lineal
Programacion lineal Programacion lineal
Programacion lineal
 
Clase 03_PPL2.pptx
Clase 03_PPL2.pptxClase 03_PPL2.pptx
Clase 03_PPL2.pptx
 
Descomposición en Landscapes Elementales del Problema de Diseño de Redes de R...
Descomposición en Landscapes Elementales del Problema de Diseño de Redes de R...Descomposición en Landscapes Elementales del Problema de Diseño de Redes de R...
Descomposición en Landscapes Elementales del Problema de Diseño de Redes de R...
 
S13 - Procesamiento digital de imágenes y visión artificial.pptx-1.pdf
S13 - Procesamiento digital de imágenes y visión artificial.pptx-1.pdfS13 - Procesamiento digital de imágenes y visión artificial.pptx-1.pdf
S13 - Procesamiento digital de imágenes y visión artificial.pptx-1.pdf
 
Optimización. Métodos numéricos
Optimización. Métodos numéricosOptimización. Métodos numéricos
Optimización. Métodos numéricos
 
Investigación de operaciones I y II.pptx
Investigación de operaciones I y II.pptxInvestigación de operaciones I y II.pptx
Investigación de operaciones I y II.pptx
 
REDES.PPT
REDES.PPTREDES.PPT
REDES.PPT
 
Programación Lineal.pdf
Programación Lineal.pdfProgramación Lineal.pdf
Programación Lineal.pdf
 
SESION_17 PROBLEMA DE TRANSBORDO Y ASIGNACION (4).pptx
SESION_17 PROBLEMA DE TRANSBORDO Y ASIGNACION (4).pptxSESION_17 PROBLEMA DE TRANSBORDO Y ASIGNACION (4).pptx
SESION_17 PROBLEMA DE TRANSBORDO Y ASIGNACION (4).pptx
 
INTRODUCCION.ppt
INTRODUCCION.pptINTRODUCCION.ppt
INTRODUCCION.ppt
 
Manual.ioii
Manual.ioiiManual.ioii
Manual.ioii
 
tema 3-2 Algoritmos de realce.pdf
tema 3-2 Algoritmos de realce.pdftema 3-2 Algoritmos de realce.pdf
tema 3-2 Algoritmos de realce.pdf
 
Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal entera
 
prinsipios de propagacion
prinsipios de propagacionprinsipios de propagacion
prinsipios de propagacion
 
Despacho economico
Despacho economicoDespacho economico
Despacho economico
 
Optimizacion en IMRT
Optimizacion en IMRTOptimizacion en IMRT
Optimizacion en IMRT
 
Sesión 04 2015 II
Sesión 04 2015 IISesión 04 2015 II
Sesión 04 2015 II
 
Unidad 1. Programación entera
Unidad 1. Programación enteraUnidad 1. Programación entera
Unidad 1. Programación entera
 
Unidad 1. Programación entera
Unidad 1. Programación enteraUnidad 1. Programación entera
Unidad 1. Programación entera
 
Limites, Derivadas y sus Aplicaciones Final2.pdf
Limites, Derivadas y sus Aplicaciones Final2.pdfLimites, Derivadas y sus Aplicaciones Final2.pdf
Limites, Derivadas y sus Aplicaciones Final2.pdf
 

Dernier (9)

MODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICOMODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
MODERNISMO VS POSMODERNISMO CUADRO SINOPTICO
 
CONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datosCONTRATO DE TRABAJO, remuneraciones y otros datos
CONTRATO DE TRABAJO, remuneraciones y otros datos
 
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdfDIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
DIARIO EL PERUANO 19-06-202hhhhhhhh3.pdf
 
¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!¡Explora el boletín del 29 abril de 2024!
¡Explora el boletín del 29 abril de 2024!
 
FASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptxFASES DE LA CONSULTORÍA- parte 1aa.pptx
FASES DE LA CONSULTORÍA- parte 1aa.pptx
 
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdfUñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
Uñas en Gel emprendedores CURSO-DE-UNAS-ACRILICAS.pdf
 
Patologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdfPatologia General DRA Tiñini Banknco.pdf
Patologia General DRA Tiñini Banknco.pdf
 
1. PRESENTACION COSMOBIOLOGIA.pdf ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto1. PRESENTACION COSMOBIOLOGIA.pdf  ler el texto
1. PRESENTACION COSMOBIOLOGIA.pdf ler el texto
 
-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo Venezuela-PEIC-NUEVO de plantel educativo Venezuela
-PEIC-NUEVO de plantel educativo Venezuela
 

Relajacion lagrangiana

  • 2. • LaGrange lo inventó en el año 1797. • Desde su creación este método ha sido la técnica de acotación preferida, hasta los años 1990 donde apareció la técnica de Branch and Price. Historia
  • 3. Descripción del Método • Consiste en relajar un problema de optimización. • Busca remover la restricción mala y colocarla en la función objetivo para resolver más fácil el problema. • Se coloca una restricción en la función objetivo como penalización. Se le asigna un peso a esa penalización con el multiplicador de Lagrange. • Se usa principalmente en problemas de optimización discreta y en particular en problemas de redes
  • 5. Gráficamente Z*(x*) L(λ) | x=x₁ L(λ) | x=x₂ L(λ) | x=x₃ L(λ) | x=x₄ λ L(λ) λ* Min L(λ)•L(λ) esta restringido por los valores que pueden tomar las variables xⁿ. •Para un x fijo se trazan las recta con λ variable que limitan la función L(λ). •Se busca el mínimo de la función. ¿Cómo encontramos el lambda que nos ubica en el mínimo?
  • 6. Método del Subgradiente Z*(x*) λ L(λ) λ* Min L(λ) λⁿ⁺¹=[λⁿ+Ѳⁿ (b-Axⁿ)]⁺ ⁺ :representa la parte positiva, será 0 si es que es negativo. UB: Es un valor factible de Z(x) b-Axⁿ: Restricción relajada. µ=Tamaño de salto de la iteración. µ Grandeµ Chico
  • 7. Ventajas • Se aplica a cada descomposición de un modelo y llega a una muy aproximada solución por resolver problemas mas bien generales que de solución única. • Resuelve núcleos de sub-problemas como modelos independientes. • La solución Lagrangiana aproximada puede tomar las ventajas de varios algoritmos conocidos. • Permite desarrollar límites sobre el valor de la función objetivo óptima de manera rápida. • Idear métodos en base a una heurística efectiva para resolver problemas de optimización combinatorial compleja y programación entera.
  • 8. Restricciones del Método • El problema relajado sea más sencillo de resolver que el problema original puesto que podría ser necesario resolverlo muchas veces. • El otro factor consiste en que la relajación debe ser buena en el sentido de que el valor de la solución del problema relajado debe ser suficientemente cercano al del problema original. • Un problema min{g(y) : y Ŷ R} es una relajación del∈ ⊆ problema min{f(y) : y Y R} si y sólo si Y Ŷ y f(y) ≤ g(y) para∈ ⊆ ⊆ todo y Y∈
  • 9. Aplicaciones Clásicas Tópico Integración de Estructura de Red Redes con lados limitantes • Flujo de costo mínimo • Camino más corto Problema del Vendedor Viajero • Asignación de problema • Flujo de costo mínimo Ruta Vehicular • Asignación del problema • Una variante mínima de árbol de expansión Diseño de Redes • Camino más corto Two-duty operator scheduling • Camino más corto • Flujo de costo mínimo Árbol de expansión de grado limitado • Árbol de expansión mínimo Plan de Producción multi-item • Camino más corto • Flujo de costo mínimo • Programas dinámicos
  • 10. Discución calidad del método • Es muy barato y tiene un corto tiempo de resolución, ya que no pretende conseguir la optimalidad, sino que busca cotas o soluciones infactibles que se acerquen al óptimo. • A pesar de esto en gran número de casos se encuentra el óptimo a un bajo costo. • Permite usar la cotas encontradas para comparar los GAP de distintas heurísticas de manera más exacta que la relajación lineal.
  • 11. Aplicación en instancia de prueba • Se tiene el siguiente grafo con las distancias en los arcos y la demanda en el nodo. • El objetivo es maximizar la demanda cubierta localizando solamente 2 centros de distribución, tomando como consideración que cada centro tiene un radio de cobertura de 20 km. • Como se muestra a continuación…
  • 13. Aplicación en instancia de prueba Parámetro Variables Ai,j= 1 si es que el nodo i cubre al j, 0 en otro caso. Dj=Demanda centro j. N=número de centros a localizar. Xj=1 si es que se localiza en j, 0 en otro caso. Yj=1 si el nodo j es atendido, 0 en otro caso. Suma la demanda de los nodos atendidos Un centro es atendido solo si ese centro o alguno a menos de 20 km es atendido No puede localizarse más de N centros. Restricción a relajar !
  • 14. Aplicación en instancia de prueba Lagrangeano:
  • 15. a b c d e f g h i a 1 1 0 0 0 0 0 1 0 b 1 1 0 0 0 0 0 0 1 c 0 0 1 1 0 0 0 0 0 d 0 0 1 1 1 0 0 0 1 e 0 0 0 1 1 0 0 0 0 f 0 0 0 0 0 1 1 0 1 g 0 0 0 0 0 1 1 1 0 h 1 0 0 0 0 0 1 1 1 i 0 1 0 1 0 1 0 1 1 Aplicación en instancia de prueba Ahora para el caso puntual de nuestro problema, se hace la matriz con los valores de Ai,j para un radio de cobertura de 20 km. Luego para la resolución se utiliza solver de Excel para los distintos valores de µ. Ai,j: 11 17 21 31 15 14 21 12 11 26 182516 19 34 19 C D EFG H I 1215 23 40 28 18 32 17 20 A B Nodo i es el que más atiende, por tanto es un claro candidato y es bueno incluirlo en la solución inicial. (Heurística Greedy para sol. inicial)
  • 16. Aplicación en instancia de prueba Restricción Relajada: Para nuestro caso: µ d,e,h,i d,h,i d,i 30 50 i Penaliza a la funciónCalza el min. de L(µ) con max. Z(x) ya que la penalización desaparece. Z*(x*) 205 - L(µ) Multiplicador tan grande que conviene que la resta sea positiva localizando menos centros
  • 17. Aplicación en instancia de prueba Resumen de resultados: Lamda Min L Localizaciones Cobertura 0 205 d,e,h,i todos 10 190 d,e,h,i todos 15 190 d,h,i todos 30 175 d,h,i todos 32 173 d,h,i todos 34 172 d,i b,c,d,e,f,h, i 40 172 d,i b,c,d,e,f,h, i 50 172 d,i b,c,d,e,f,h, i 70 190 i b,d,f,h,i
  • 18. Aplicación en instancia de prueba Para los valores de lamda entre 32 y 50 se logra el mínimo. La solución de el min L(µ) es la misma que la del máx Z(X), ya que consideran los mismos valores optímales de x, valores donde la penalización es 0, puesto que (N- Xj)=0. La penalización se mantiene así desde el 32 hasta el 50, manteniendo el mínimo.
  • 19. Conclusiones • El método de Relajación Lagrangiana, es de gran utilidad para resolver problemas de forma rápida con bajos recursos. • Consigue óptimos en algunos casos, o cotas mejores que la de la relajación lineal, permitiendo la comparación de heurísticas. • Se adapta al problema del usuario, pues nosotros elegimos que restricción relajar.
  • 20. FIN Sus aplicaciones son infinitas ! Solo basta relajar ¿Preguntas?