SlideShare une entreprise Scribd logo
1  sur  98
Télécharger pour lire hors ligne
UNIVERSIDAD DE TALCA
FACULTAD DE INGENIERÍA
ALGORÍTMOS PARA EL PROBLEMA DEL ÁRBOL
DE EXPANSIÓN ROBUSTO CON INCERTIDUMBRE
INTERVALAR
TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN GESTIÓN DE
OPERACIONES
Por
FRANCISCO JAVIER PÉREZ GALARCE
COMISIÓN INTEGRADA POR LOS PROFESORES:
Dr. Alfredo Candia Véjar
Dr. Fernando Paredes Cajas
Dr. Rodrigo Herrera Leiva
Marzo, 2013
CURICÓ – CHILE
vi
vii
Esta tesis está dedicada a:
Las dos mujeres que me toleraron y acompañaron durante este proceso de intenso trabajo;
Soledad Miranda y Francisca Pérez.
viii
Agradecimientos
A toda mi familia, la cual me ha apoyado en cada paso que he dado en mi vida. En especial a "mi
amor" Soledad y "mi pequeña" Francisca; por su amor, apoyo y comprensión.
A mi maestro Alfredo Candia, por su apoyo, motivación y confianza desde que comenzó mi
proceso de magister.
A Eduardo Álvarez, por ser mi compañero en este trabajo, brindarme su ayuda y apoyo, incluso
desde la distancia.
A mis compañeros de magister y pregrado, todos sin distinción son excelentes profesionales y aún
mejores personas.
ix
Resumen
Esta tesis aborda el Problema Árbol de Expansión con incertidumbre intervalar en los costos,
utilizando el criterio de Min-Max Regret.
Varios algoritmos son implementados, tanto exactos como heurísticos. Con respecto a los
algoritmos exactos, se implementan Descomposición de Benders y Branch and Cut, ambos
incluyen variantes. Branch and Cut logra superar al resto de los algoritmos, incluso obteniendo
gaps menores a un 10%, para 100 nodos, en un conjunto de instancias. En relación a las
heurísticas, se desarrolla una heurística constructiva, la que utiliza la información de los intervalos,
a diferencia de todas las aproximaciones de la literatura. Se proponen metaheurísticas basadas en
Búsqueda Local (Mejora iterativa, Simulated Annealing y GRASP), se obtienen gaps de calidad,
incluso para las instancias más complejas.
Se realiza una comparación desde un punto de vista experimental, mostrando un buen
desempeño, pues se igualan o mejoran los resultados existentes.
Palabras clave: Incertidumbre, Min-Max Regret, Árbol de expansión.
Abstract
This thesis addresses The Robust Spanning Tree Problem with interval uncertainty in data costs,
using the Min-Max Regret criterion.
Several algorithms are implemented, both exact as heuristic. With respect to exact algorithms are
implemented Benders decomposition and Branch and Cut, and both include some variants. Branch
and Cut can ourperform the rest of the algorithms, obtaining gaps below 10% for instances with 100
nodes in a set of instances. In relation to heuristics, a constructive heuristic is developed, which
uses the information of the intervals, and different to the known approaches from the literature, that
only work with scenarios. Metaheuristics based on Local Search (iterative improvement, simulated
annealing and GRASP) are proposed and they got quality gap, even for more complex instances .
A comparison is made from an experimental point of view, showing a good performance, improving
existing results for some group of instances.
Key Words: Uncertainty, Min-Max Regret, Spanning Tree.
x
ÍNDICE
CAPÍTULO I: INTRODUCCIÓN...................................................................................................................... 14
1.1 Contextualización .............................................................................................................. 15
1.2 Manejo de Incertidumbre................................................................................................... 17
1.3 Objetivos............................................................................................................................ 18
1.3.1 Objetivos específicos..................................................................................................... 18
1.4 Estructura de la tesis......................................................................................................... 19
CAPÍTULO II: MODELO MINMAX REGRET................................................................................................... 20
2.1 Descripción General.......................................................................................................... 21
2.2 Modelo Min-Max Regret ................................................................................................... 22
CAPÍTULO III: MIN-MAX REGRET SPANNING TREE..................................................................................... 28
3.1 Formulaciones para MST ................................................................................................. 29
3.2 Definición del MMR-ST ..................................................................................................... 30
3.3 Algoritmos exactos ............................................................................................................ 32
3.4 Heurísticas para MMR-ST................................................................................................ 35
3.5 Metaheurísticas para MMR-ST ........................................................................................ 36
3.5.1 Simulated annealing...................................................................................................... 36
3.5.2 Búsqueda tabú .............................................................................................................. 38
CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA MMR-ST ...................................................................... 41
4.1 Aporte de la Tesis.............................................................................................................. 42
4.1.1 Algoritmo exactos.......................................................................................................... 42
4.1.2 Algoritmos aproximados................................................................................................ 46
CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE RESULTADOS.................................................................. 54
5.1 Descripción de instancias........................................................................................................ 55
5.2 Preprocesamiento ............................................................................................................. 56
5.3 Algoritmos Exactos............................................................................................................ 58
5.3.1 Evaluación de variantes de Descomposición de Benders ............................................ 58
5.3.2 Análisis MILP, EBD y B&C ............................................................................................ 63
xi
5.3.3 Análisis del comportamiento de B&C............................................................................ 69
5.3.4 Análisis de instancias La............................................................................................... 72
5.4 Experimentación de algoritmos aproximados. .................................................................. 73
5.4.1 Análisis de heurísticas básicas ..................................................................................... 73
5.4.2 Análisis de metaheurísticas........................................................................................... 78
CAPÍTULO VI: CONCLUSIONES Y TRABAJOS FUTUROS................................................................................ 84
Referencias Bibliografía ............................................................................................................................. 87
Anexo 1: Estadísticas de heurísticas........................................................................................................... 93
Anexo 2: Parámetros GRASP...................................................................................................................... 97
ÍNDICE DE TABLAS
Tabla 1. Estructura de costos instancias tipo yaman........................................................................ 55
Tabla 2. Pre procesamiento de instancias He y Mo ......................................................................... 57
Tabla 3. Pre procesamiento de instancias Ya................................................................................... 57
Tabla 4. Tiempos de ejecución He para variantes de Benders resueltas al óptimo......................... 59
Tabla 5. Tiempo de ejecución para instancias Mo con variantes de Benders ................................. 59
Tabla 6. Tiempos de ejecución para instancias Ya con variantes de Benders ................................ 60
Tabla 7. Gap de instancias He y Mo para variantes de Benders sin optimalidad ............................ 61
Tabla 8. Gap para instancias Ya con variantes de Benders............................................................. 61
Tabla 9. Tiempos de ejecución instancias He para MILP, EBD y B&C ............................................ 63
Tabla 10. Tiempo de ejecución instancias Mo para MILP, EBD y B&C ........................................... 64
Tabla 11. Tiempos de ejecución instancias Ya para MILP, EBD y B&C .......................................... 65
Tabla 12. Desviación porcentual instancias He para MILP, EBD y B&C.......................................... 66
Tabla 13. Desviación porcentual instancias Mo para MILP, EBD y B&C ......................................... 66
Tabla 14. Desviación porcentual instancias Ya para MILP, EBD y B&C.......................................... 66
Tabla 15. Análisis de tiempo de B&C para instancias Ya de mayor tamaño................................... 69
Tabla 16. Análisis de tiempo instancias He de mayor tamaño para B&C ........................................ 70
Tabla 17. Análisis de tiempo instancias Mo de mayor tamaño para B&C........................................ 70
Tabla 18. Gap de instancias Ya de mayor tamaño para B&C .......................................................... 71
Tabla 19. ANálisis de desviaciones porcentuales para B&C en instancias mayores tipo He .......... 72
Tabla 20. Análisis instancias MO para B&C en tamaños mayores................................................... 72
Tabla 21. Análisis de tiempos instancias La..................................................................................... 73
Tabla 22. Análisis de gap instancias La............................................................................................ 73
xii
Tabla 23. Análisis de heurísticas instancias Ya(C,C) ....................................................................... 74
Tabla 24. Análisis de heurísticas instancias Ya(C,2C) ..................................................................... 75
Tabla 25. Análisis de heurísticas instancias Mo ............................................................................... 75
Tabla 26. Análisis de heurísticas instancias He................................................................................ 75
Tabla 27. Muestra de estadísticas de heurísticas para Ya(C,C) ...................................................... 76
Tabla 28. Muestra de estadísticas de heurísticas para Ya(C,2C) .................................................... 76
Tabla 29. Muestra de estadísticas de heurísticas para He............................................................... 77
Tabla 30. Muestra de estadísticas para heurísticas de Mo .............................................................. 78
Tabla 31. Mínima (min), promedio (av.) y máxima desviación porcentual desde solución de
referencia para instancias con 100 nodos. ....................................................................................... 80
Tabla 32. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de
referencia para instancias con 80 nodos. ......................................................................................... 81
Tabla 33. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de
referencia para instancias con 60 nodos. ......................................................................................... 82
Tabla 34. Estadísticas de heuríticas Ya(c,c)..................................................................................... 93
Tabla 35. Estadísticas de heurísticas Ya(C,2C) ............................................................................... 94
Tabla 36. Estadísticas heurísticas He............................................................................................... 95
Tabla 37. Estadísticas heurísticas Mo .............................................................................................. 96
Tabla 38. Resultados de GRASP para 100 nodos con distintos conjuntos de parámetros por familia
de instancias...................................................................................................................................... 97
ÍNDICE DE ILUSTRACIONES
Ilustración 1. Cálculo del regret parte I ............................................................................................. 24
Ilustración 2. Cálculo del regret parte II ............................................................................................ 25
Ilustración 3. Cálculo del regret parte III ........................................................................................... 25
Ilustración 4. Cálculo del regret parte IV ........................................................................................... 25
Ilustración 5. Grafo G con datos intervalares.................................................................................... 48
Ilustración 6. Grafo con nuevo criterio de optimización .................................................................... 48
Ilustración 7. Composición del regret local ....................................................................................... 49
Ilustración 8. Cálculo de regret local parte 1..................................................................................... 49
Ilustración 9. Cálculo del regret local parte II .................................................................................... 50
Ilustración 10. Definición de vecindario parte I ................................................................................. 52
Ilustración 11. Definición de vecindario parte II ................................................................................ 52
Ilustración 12. Definición de vecindario parte III ............................................................................... 53
Ilustración 13. Definición de vecindario parte IV ............................................................................... 53
xiii
ÍNDICE DE GRÁFICOS
Gráfico 1. Porcentaje de instancias resueltas para un tiempo dado................................................. 62
Gráfico 2. Porcentaje acumulado de instancias para un gap dado .................................................. 62
Gráfico 3. Porcentaje acumulado de instancias v/s tiempo para MILP, EBD Y B&C ....................... 68
Gráfico 4. Porcentaje acumulado de instancias v/s gap para MILP, EBD Y B&C ............................ 68
CAPÍTULO I: INTRODUCCIÓN
Este capítulo tiene por objetivo dar a conocer la problemática, en particular, con la que se
trabaja, posteriormente se presentan los objetivos del trabajo. Finalmente, se describe la
contribución que se realizó.
15
1.1 CONTEXTUALIZACIÓN
Dentro de la Investigación de Operaciones (IO) una de las áreas más desarrolladas es la
optimización en redes. Los problemas del área han cautivado el interés de los investigadores de
ésta y muchas otras áreas de investigación, que incluso escapan del contexto de la ingeniería,
tales como ciencias de la computación, matemática y biología, por nombrar algunas. Dicha
relevancia se debe principalmente a la gran variedad de situaciones que pueden ser modeladas en
redes. Los estudios de optimización en redes se pueden relacionar con diversas áreas de
aplicación, que van desde problemáticas básicas de logística, hasta el modelamiento de redes
sociales. Los problemas en redes tienen la propiedad de poder ser representados de forma simple
a través de grafos. Para mayor detalle al respecto de los conceptos y propiedades básicas de la
teoría de grafos ver (Godsil & Royle, 2001).
Una gran cantidad de problemas en grafos pueden ser modelados a través de la
optimización combinatorial (CO), donde las restricciones buscan dar una topología particular a la
solución, por ejemplo: un tour para el caso del problema del vendedor viajero (TSP), un camino
para el caso del problema del camino más corto (SP) o un árbol para el caso del problema del árbol
de expansión mínima (MST). La función objetivo busca optimizar una función de costos asociada a
dicha estructura.
Dentro de los problemas de optimización combinatorial en redes, uno de los más
estudiados es el MST. Este problema se define sobre un grafo conexo y no dirigido ,
donde es un conjunto finito de vértices, que dependiendo de la aplicación pueden representar
terminales, estaciones de telecomunicaciones, etc.; corresponde al conjunto de aristas, que
representan los enlaces entre los vértices, cada una de estas conexiones tiene un número positivo-
real asociado, el cual se denota como , que asocia el peso de ir del vértice al , el cual puede
representar costo, tiempo, distancia, etc. Un árbol de expansión (ST) corresponde a un conjunto de
n nodos y aristas, con la propiedad de conectar todos los vértices del grafo , luego un
MST es el conjunto de aristas que conectan todos los vértices del grafo al menor costo
posible.
Este problema fue propuesto en diferentes contextos antes del siglo XX, sin embargo, su
primera formulación matemática se presentó en 1926, por Boruvka (1926), quién según la historia,
tuvo que aprender de dicho problema por petición de un amigo (Jindrich Saxel, empleado de un
planta eléctrica), durante la electrificación del sur de Moravia, en la República Checa. Fue para
resolver esta problemática, netamente práctica, donde se proporcionó el primer algoritmo conocido
para resolver el MST; convencido del gran aporte realizado, Boruvka, el mismo año, publicó otro
artículo en donde abordó con mayor detalle la contribución realizada (Boruvka, 1926b).
Posteriormente, Vojtech Jarník, otro matemático checo, al darse cuenta de la importancia del
16
trabajo realizado por Boruvka (1926) y considerando que la solución propuesta en dicho trabajo,
desde su punto de vista era muy complicada, trabajó por lo tanto en una solución alternativa, para
posteriormente enviarla a través de una carta a Boruvka y, finalmente, publicar un artículo con el
mismo nombre de (Boruvka, 1926) con el subtítulo From the letter to Mr. Boruvka (Jarník, 1930).
Traducciones de los trabajos de Boruvka y Jarník son presentadas en (Nesetril et al., 2001) y
(Korte & Nesetril, 2001b) respectivamente. En la década de los 50’, con la aparición de los
primeros computadores, surgieron numerosos estudios importantes, donde destacan los realizados
por (Prim, 1957), quien de forma independiente a (Jarník, 1930) propone una alternativa
semejante y (Kruskal, 1956) el cual propone una tercera alternativa de solución a la problemática.
Si bien hasta la fecha se siguen proponiendo nuevos algoritmos, son estos trabajos los que juegan
el rol principal en la historia del MST. Para una revisión completa de los aportes realizados
respecto al MST ver (Graham & Hell, 1985), (Magnanti & Wolsey, 1995), (Nesetril, 1997) y (Nesetril
et al., 2001).
Los problemas de árbol han llamado el interés de la investigación de operaciones por
diversas razones, en primer lugar por su gran aplicabilidad, debido a que las aplicaciones naturales
de dicho problema están relacionadas con sistemas de comunicación, tales como: redes
telefónicas, eléctricas, hidráulicas, de televisión por cable, computacionales y de transporte. Sin
embargo, con el transcurso del tiempo este modelo ha sido propuesto para resolver problemáticas
de diferente índole. Algunos trabajos en donde se muestra la diversidad de aplicaciones son:
Reconocimiento de filogenia de imágenes en (Rocha & Dias, 2012), Análisis de Jerarquía celular
en (Kiranyaz & Gabbouj, 2007), Problemas de localización (Tamir, 2000), diseño de algoritmos
para clustering dentro del contexto de data mining (Huang & Li, 2007), diseño de sistemas
energéticos eficientes (Zhang, Li, & Lim, 2010), (Li et al., 2011), análisis de crisis financieras
(Zhang, et al., 2011), telecomunicaciones (Santos et al. 2008). Otras aplicaciones básicas se
pueden encontrar en (Ahuja et al., 1995).
Otro factor que ha gatillado el profundo estudio de árboles está dado por la facilidad
(algoritmos de tiempo polinomial) con la que se puede resolver el MST clásico, esto ha permitido
que todas las aplicaciones antes nombradas hayan sido viables computacionalmente. Un tercer
punto de gran importancia es que los árboles están presentes en un área de gran importancia
como lo es la optimización en redes, es más, los árboles representan uno de los modelos más
básicos para el diseño de redes.
Finalmente, los modelos de árbol representan un problema tipo para muchos problemas de
optimización combinatorial, por lo que las técnicas estudiadas en éste pueden ser replicadas para
esta clase de problemas. Para mayor detalle de las propiedades del MST que han despertado el
interés de los investigadores ver (Magnanti & Wolsey, 1995).
17
1.2 MANEJO DE INCERTIDUMBRE
Una de las discusiones presentes desde los orígenes de la investigación de operaciones es la
incerteza en los parámetros. Los modelos en forma clásica trabajan bajo el supuesto de que los
datos son conocidos, es decir, su naturaleza es determinista. En la práctica trabajar bajo este
supuesto es poco realista, la forma tradicional para obviar dicho supuesto es la programación
estocástica, sin embargo, esta metodología implica realizar otra afirmación importante, pues
requiere definir una distribución de probabilidad, lo cual muchas veces es una tarea titánica y
asumir una equivocada, puede generar errores de gran magnitud. Algunos factores que pueden
llevar a tener una incorrecta distribución de probabilidad son: poca cantidad de observaciones,
muestra inadecuada, errores en proceso de muestreo, desconocimiento del tomador de decisión de
la gama de distribuciones de probabilidad existentes, etc.
Dada la dificultad para determinar una distribución de probabilidad, durante las últimas
décadas ha tomado gran importancia una nueva línea de investigación, la cual trabaja la
incertidumbre mediante datos intervalares, donde no se tiene conocimiento con respecto a su
distribución de probabilidad. Dicha propuesta de modelamiento de la incertidumbre ha recibido el
nombre de optimización robusta.
Los acercamientos a la Optimización Robusta han sido diversos y se pueden observar a lo
menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax (y
Minmax Regret) es presentado en la década de los 90’ en términos de optimización robusta, este
trabaja los datos de forma intervalar y consideran diferentes criterios para la evaluación de la
optimalidad, una compilación de resultados importante es mostrada en (Kouvelis & Yu, 1997). Otra
importante fuentes de investigación relevante, es la propuesta por Bertsimas en sus trabajos
(Bertsimas & Sim, 2003) y (Bertsimas & Sim, 2004), este se ha convertido en uno de los más
importantes modelos en el contexto de la optimización robusta. La característica principal de este
enfoque con datos intervalares es que deriva en un modelo de programación lineal entera que
conserva la complejidad del problema original. Un tercer acercamiento para el tratamiento de la
incertidumbre es el realizado por Ben-Tal, Nemirovski y Ghaoui (2009), donde se trabaja la
incertidumbre como perteneciente a elipsoides, conformando un problema de optimización
convexa, una excelente referencia se presenta en el libro (Ben Tal et al., 2009). El último y más
reciente acercamiento, es el propuesto por (Chen et al., 1997) con un enfoque un tanto distinto, el
cual tiene por objetivo minimizar el riesgo. Para mayor detalle del último acercamiento, ver los
siguientes trabajos (Chen et al., 2009), (Chen, et al., 2009b), (Álvarez-Miranda et al., 2010) y
(Álvarez-Miranda et al., 2011).
En este trabajo se profundizará en el modelo Min-Max Regret (MMR) que en particular ha
capturado gran atención; diferentes modelos han sido estudiados bajo este concepto; Camino más
18
corto, de ahora en adelante SP (Shortest Path) (Karasan et al. 2001), MST (Yaman et al., 2001),
problemas de localización, de ahora en adelante LP (Location Problem) (Averbakh & Berman,
2005), vendedor viajero, de ahora en adelante TSP (Traveling Salesman Problem) (Montemanni et
al., 2007). Una característica importante de los Modelos de tipo MMR es que usualmente modelos
que en la versión clásica son fáciles de resolver (tiempo polinomial) en la contraparte robusta se
convierten en problemas NP-Hard.
El MMR-ST (MinMax Regret Spanning Tree) es un problema que merece ser estudiado, por
diversas razones: desafío algorítmico dado por la complejidad del problema, estructura particular
que le permite ser un problema tipo (problema anidado MinMax). Luego, las técnicas utilizadas en
este pueden ser replicadas a una gran cantidad de problemas en redes, fácil interpretación de la
modelación, facilidad de obtención de los parámetros de entrada a diferencia de la programación
estocástica, etc.
1.3 OBJETIVOS
Estudiar y resolver el problema del Árbol de Expansión Robusto con datos intervalares a través del
modelo Min-Max Regret (MMR-ST), mediante algoritmos heurísticos, meta-heurísticas y métodos
exactos.
1.3.1 OBJETIVOS ESPECÍFICOS
 Revisión bibliográfica de los métodos de optimización robusta con incertidumbre intervalar,
con énfasis en el criterio de MMR.
 Revisión bibliográfica de algoritmos exactos para solución del MMR-ST e implementar la
(s) mejores alternativas.
 Revisión bibliográfica y/o meta-heurísticas para la solución del MMR-ST e Implementar la
(s) mejores alternativas.
 Diseñar e implementar variantes de los algoritmos encontrados en la literatura, tanto para
algoritmos heurísticos, meta-heurísticas como métodos exactos.
 Analizar y confrontar los resultados obtenidos por los diferentes algoritmos heurísticos y
exactos implementados.
19
1.4 ESTRUCTURA DE LA TESIS
El presente trabajo está organizado de la siguiente forma: en la sección 2 se entregan los
fundamentos generales de la optimización robusta con especial énfasis en el modelo MMR, se
muestran las motivaciones de su uso, se presenta la generalización matemática de un modelo de
optimización combinatorial (CO) bajo este modelo. Además, se presenta una recopilación de
estudios de su complejidad. En la sección 3, se formaliza el MMR-ST, primero, entregando los
fundamentos de las formulaciones matemáticas del problema clásico, y luego, presentando una
revisión de los algoritmos exactos y las heurísticas propuestas para la resolución de éste. En la
sección 4, se presenta el aporte de esta tesis, es decir, se da una descripción detallada de los
algoritmos tanto exactos como heurísticos propuestos para la resolución del problema en estudio.
Los resultados de la experimentación son expuestos en la sección 5, acá se presenta además el
conjunto de instancias utilizado para el análisis, en este apartado se entrega un análisis exhaustivo
de los diferentes algoritmos utilizados. Finalmente, en la sección 6 se despliegan las conclusiones
y los posibles trabajos futuros relacionados.
CAPÍTULO II: MODELO MINMAX REGRET
En este capítulo se introduce la teoría actual de la optimización robusta con incertidumbre
intervalar, dando especial énfasis en la metodología MMR.
21
2.1 DESCRIPCIÓN GENERAL
Desde los orígenes de la investigación de operaciones la incerteza ha despertado el interés por parte
de los investigadores. Los modelos de investigación de operaciones en forma clásica trabajan bajo el
supuesto de que los datos son conocidos, es decir, su naturaleza es determinista, esta condición es
convencionalmente aceptada, sin embargo en ocasiones no considerar la incerteza puede no ser lo
más adecuado, el primer acercamiento a la incerteza en un modelo matemático fue realizado por
(Dantzig, 1955); a partir de este trabajo nació una de las técnicas más tradicionales para trabajar
incerteza, como lo es la programación estocástica, excelentes referencias para profundizar en el tema
se presentan en los libros (Uryasev & Pardalos, 2001), (Schneider & Kirkpatrick, 2006) y (Marti, 2008).
Esta metodología implica realizar otra afirmación importante, pues requiere definir una distribución de
probabilidad; en ocasiones asumir un distribución de probabilidad es una tarea titánica y asumir una
equivocada puede generar errores de gran magnitud.
Otra aproximación para el tratamiento de la incerteza corresponde a la incertidumbre difusa, la
cual se basa en la determinación de una pertenencia gradual, que está dada por una función (función
de pertenencia). Este acercamiento al igual que la programación estocástica requiere de una
definición de parámetros, el origen de estos modelos está en el trabajo presentado por (Bellman &
Zadeh, 1970), un poco de la historia de esta línea de investigación se puede revisar en el libro de
(Zimmermann, 2005).
Durante las últimas dos décadas ha surgido una nueva línea de investigación que trabaja la
incertidumbre de forma determinística, también conocida como optimización robusta (OR). La
característica principal es que tanto eventos con alta probabilidad de ocurrencia como eventos con
baja probabilidad de ocurrencia tienen la misma importancia. El origen de esta aproximación a la
incertidumbre es variado y sus principales precursores pertenecen a las ciencias aplicadas, donde
destacan la estadística robusta (Huber & Ronchetti, 2009), el aprendizaje automático (Mitchell, 1997),
el control robusto (Dullerud & Paganini, 2010) y obviamente la teoría de optimización. El objetivo de
esta rama de investigación es buscar soluciones que entreguen cierta protección al tomador de
decisión ante escenarios poco favorables.
Los acercamientos a la optimización robusta han sido diversos y se pueden observar a lo
menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax es
presentado en la década de los 90’ en términos de optimización robusta. Éste trabaja los datos de
forma intervalar y considera diferentes criterios para la evaluación de la optimalidad. Una compilación
de resultados importante es mostrada en (Kouvelis & Yu, 1997), quienes fueron pioneros en la
adaptación de robustez a problemas de optimización combinatorial. Otra fuente de información de
22
gran relevancia, y más actualizada para este tipo de modelos, es la presentada por (Kasperski A.
,2008).
En este trabajo se estudiará en más detalle el modelo MMR, en tanto, continuación se
profundizará en sus características.
2.2 MODELO MIN-MAX REGRET
Los modelos MMR han capturado gran atención dentro de la investigación de operaciones, diferentes
aplicaciones han sido estudiadas bajo este concepto: camino más corto (SP) (Karasan et al. 2001),
Árbol de expansión (ST) (Yaman et al., 2001), Problemas de localización (LP) (Averbakh & Berman,
2005), vendedor viajero (TSP) (Montemanni et al., 2007), por mencionar algunos. En éstos y en un
gran conjunto de trabajos adicionales, se ha analizado el modelo MMR desde diferentes perspectivas,
tales como complejidad computacional, algoritmos exactos y heurísticas. Más adelante se verán en un
mayor detalle los principales aportes en cada una de las perspectivas.
En relación a las aplicaciones se han realizado numerosos esfuerzos para resolver situaciones
reales. Ejemplos de esto son algunos trabajos que se mostrarán inmediatamente. En (Luolou &
Kanudia, 1999) se utiliza una formulación para un problema relacionado con estrategias de
disminución de emisiones de gas en invernaderos, Dicho estudio se llevó a cabo en la provincia de
Québec en Canadá. En esta investigación se realizan interesantes comparaciones con una
formulación de programación estocástica para el mismo problema. En los trabajos de (Chang &
Davila, 2006) y (Chang & Davila, 2007) se utiliza el modelo MMR para abordar la problemática de la
gestión de residuos sólidos. En el trabajo del año 2006 se utilizan técnicas de grey programming
combinadas con una formulación MMR; posteriormente en (Chang & Davila, 2007) abordan el
problema utilizando una formulación MIP para el modelo MMR, la metodología fue aplicada en el Valle
Rio Grande (TX, USA). Otro trabajo interesante es presentado en (Kasakci et al., 2007) donde es
desarrollado un modelo híbrido a través de Programación Lineal Intervalar (ILP) y la formulación del
modelo MMR. En este estudio se analizó la localización de granjas destinadas a la fabricación de
biocombustible en Francia.
El modelo MMR pertenece a la familia de modelos Min-Max donde se modela la incertidumbre a
través de datos intervalares o escenarios discretos. Para el caso de los datos intervalares, a cada
parámetro se conoce el valor de su lower y upper bound, pudiendo tomar un valor dentro de este
intervalo, que por lo demás, es independiente de los valores del resto de los parámetros. Cuando un
conjunto de parámetros toma valores, se obtiene un escenario, lo que significa que cada combinación
de parámetros determina un escenario particular, se tiene entonces un conjunto de escenarios que
corresponde al producto cartesiano de los intervalos de incerteza. Con respecto a los escenarios
discretos se tiene un conjunto que corresponde a una lista de escenarios .
23
Otro criterio conocido para el manejo de la robustez a través de MinMax es el llamado MinMax
absolut, el cual es un criterio bastante más conservador.
MMR también conocido como desviación robusta, busca el escenario donde se obtiene la mejor
peor desviación robusta, es decir, donde el máximo regret es mínimo. El término regret viene del
inglés y significa arrepentimiento; en el contexto de optimización es encontrar la solución que minimice
la brecha de la solución bajo cualquier escenario. Este problema puede ser modelado de la siguiente
forma:
Donde es el conjunto de soluciones factibles, es el conjunto de escenarios posibles, es la
función objetivo y la solución optima bajo un escenario particular .
El principal desarrollo de este modelo se ha realizado en el área de la CO. A continuación se
definirá la notación utilizada para explicar MMR en problemas combinatoriales. Esta fue extraída
desde (Averbakh & Lebedev, 2004). Lo primero es definir un problema combinatorial estándar (COP).
= sea un conjunto finito de soluciones factibles y una función definida sobre con la
propiedad de que el óptimo valor del problema: , siempre existe.
Asumiendo que existe incerteza en la función objetivo, es decir, es miembro de una familia de
funciones para algún conjunto de escenarios. Considerando independiente del conjunto
de escenarios, se denota el óptimo valor para el siguiente problema.
= , se obtiene que este problema para algún escenario se
reduce a un problema clásico de COP.
Luego, para algún y , la función se denomina regret para
bajo el escenario . El regret del peor caso para algún y el respectivo escenario inducido se
denotará por la función de que está definida por.
Se puede observar que . Luego la versión MMR-COP está dada es:
Para un problema MMR-COP se considera un conjunto finito base y el
conjunto factible de soluciones. Luego cada elemento toma valores dentro de un intervalo
24
, . A partir de lo anterior se pueden deducir las siguientes definiciones y el
teorema 1.
Definición 1: Un escenario es obtenido a través de la asignación de un costo
.
Definición 2: La desviación robusta para una solución factible de un problema combinatorial
en un escenario , es la diferencia entre el costo de y el costo de la solución óptima para el
escenario .
Definición 3: una solución se dice solución robusta relativa (relative robust solution), si este
tiene la mínima (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta.
El siguiente teorema es la base para todos los estudios de formulación matemática propuestos
a la fecha.
Teorema 1: (Yaman et al., 2001). Dada una solución y un escenario , la desviación
robusta máxima se produce cuando y , donde representa
el escenario inducido por la solución .
A continuación se presenta un ejemplo del cálculo del regret para una solución . Dado el
grafo mostrado de la ilustración 1 a la 4.
En primer lugar, en la ilustración 1, se tiene un grafo con datos intervalares, luego, en la
ilustración 2 se tiene una solución . En la ilustración 3 se genera el peor escenario de
acuerdo al teorema 1 y se calcula el costo de la solución Finalmente, en la ilustración 4,
se procede a calcular la solución óptima en el peor escenario y se calcula su costo 7, y el
respectivo regret .
ILUSTRACIÓN 1. CÁLCULO DEL REGRET PARTE I
25
LUSTRACIÓN 2. CÁLCULO DEL REGRET PARTE II
ILUSTRACIÓN 3. CÁLCULO DEL REGRET PARTE III
ILUSTRACIÓN 4. CÁLCULO DEL REGRET PARTE IV
En (Candia-Véjar et al.,, 2011) se muestra un MIP genérico para MMR-COP con restricciones y
función objetivo lineal, basado en el teorema antes mencionado y algunos supuestos que se
presentarán a continuación. Una característica que resaltan los autores es que este modelo asocia un
número polinomial de restricciones y variable.
Una variable binaria es definida diciendo si es una parte de la solución
construida. Un vector característico de un conjunto de elementos es un vector binario
tal que 1 si y solo si .
26
Ahora se asocia al conjunto de soluciones con el de vectores binarios , éste
satisface las siguientes condiciones:
 Si es un vector característico de una solución factible , entonces y
 Si es un vector característico de un subconjunto además en tanto
existe un tal que
Luego contiene todos los vectores característicos de todas las soluciones factibles en
y éste también puede contener vectores característicos de un subconjunto , tal que, . Sin
embargo, en este caso debe contener una solución factible tal que
A continuación se asumirá que puede ser descrito como un conjunto de ecuaciones
lineales de la siguiente forma:
Donde corresponde a un vector de variables auxiliares, que son utilizadas si es necesario,
es una matriz y corresponde al vector de costos, primero se asume que la matriz es totalmente
unimodular (cada sub matriz cuadrada de tiene determinante 1, 0 ó -1), luego se puede definir la
siguiente función:
En (Candia-Véjar et al.,, 2011) se muestra que un MMR-COP puede ser expresado de la
siguiente forma.
Claramente este problema no es lineal, sin embargo considerando la propiedad de total
unimodularidad de la matriz es posible transformarlo en un problema lineal con variables binarias,
para mayor detalle de esta transformación ver el artículo mencionado.
Si bien el problema puede ser expresado como un modelo lineal, su complejidad es una arista
de gran importancia, pues problemas que en su versión clásica son fáciles de resolver (en tiempo
polinomial), como lo son: MST, SP, asignación, etc., en la versión robusta se transforman en
problemas del tipo NP-Hard. Un estudio detallado de la complejidad computacional de los modelos
MMR-CO es mostrada en (Kouvelis & Yu, 1997). Varios han sido los trabajos donde se ha estudiado
27
la complejidad del modelo MMR. Una buena referencia se puede encontrar en (Aissi et al., 2005). A
continuación se presentan algunos resultados relevantes de dichos trabajos.
MMR-P = NP-Hard incluso con redes de dos capas de ancho y con solamente 2 escenarios.
MMR-ST = NP-Hard inclusive si .
MMR-Knapsack (en versión robusta absoluta): Fuertemente NP-Hard para conjuntos de
escenarios no acotado.
MMR-Allocation = NP-Hard inclusive si .
MMR-Assigment = NP-Hard inclusive si .
28
CAPÍTULO III: MIN-MAX REGRET SPANNING TREE
En este capítulo se entrega la principios matemáticos del MMR-ST, además de una extensa
revisión de los principales aportes algorítmicos realizados a la fecha.
29
3.1 FORMULACIONES PARA MST
Para definir el problema MMR-ST y además conocer las distintas aproximaciones algorítmicas
propuestas a la fecha, es necesario conocer algunas formulaciones básicas del problema clásico
(MST). Las formulaciones matemáticas para el MST se pueden clasificar en dos grandes grupos. Por
un lado se tienen las formulaciones naturales o directas y por el otro las formulaciones derivadas. Con
respecto a las formulaciones naturales se mostrarán dos, una basada en un subconjunto de
restricciones que previenen circuitos (prevención de subtours) y otra basada en el aseguramiento de
la conectividad (cut-set inequalities).
Considere la variable binaria (para todo ) que toma valor 1, si el arco está
dentro de la solución del MST. Se tiene la siguiente formulación:
Restricciones de conectividad
La restricción de cardinalidad (2.2) asegura que para cada nodo en el conjunto existe un
arco incidente. Para los subconjuntos , se consideran las siguientes definiciones
, cuando se tiene que , luego . Para asegurar la
conectividad usualmente se utiliza o restricciones de eliminación de subtour, como en la restricción
(2.4) o la inclusión de cut-set inequalities como en la restricción (2.5).
Es importante mencionar que las cut-set se implementan sobre una versión bidirigida del grafo
original, donde cada arista es reemplazada por el arco y cada arista
es remplazada con dos arcos y arco , generando el conjunto de arcos
, estos arcos heredan el costo o peso de la arista originaria
Este tipo de formulación tiene la desventaja de que el número de restricciones de conectividad
crece de forma exponencial con el tamaño del problema, pero también se han presentado
formulaciones compactas.
30
A continuación se presenta una extensión de formulación de este tipo basada en la
formulación del problema de flujo multi-producto. En esta formulación adicionalmente a las variables
se utilizarán las variables de decisión (para todo y ), lo cual especifica si
el arco es usado en el camino desde el nodo raíz a La formulación del flujo multi-producto se
presenta a continuación.
, ,
Las restricciones de conservación del flujo (2.6), (2.7) y (2.8) establecen que la solución debe
tener un camino, entre el nodo 0 y el nodo (para todo ), la restricción (2.9) asegura que solo
es posible enviar flujo a través del nodo a través del arco si este arco se encuentra dentro de la
solución. Estos conjuntos de restricciones permiten asegurar la conectividad de la solución.
3.2 DEFINICIÓN DEL MMR-ST
El MMR-ST es definido sobre un grafo , donde es el conjunto de vértices y es el
conjunto de aristas. Un intervalo con se asocia a cada arista . Los intervalos
representan rangos de pesos posibles, pueden estar asociados a costos, distancias, tiempo, etc.
Definición 1: Un escenario es obtenido a través de la asignación de un costo
.
Definición 2: La desviación robusta para un ST en un escenario , es la diferencia entre el
costo de y el costo de la solución optima para el escenario .
Definición 3: un ST se dice solución robusta relativa (relative robust solution), si éste tiene las
más pequeña (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta.
31
El siguiente teorema es la base para todos los estudios de formulación matemática propuestos
a la fecha.
Teorema 1: (Yaman et al., 2001). Dado un ST un escenario , la desviación robusta
máxima se produce cuando y , donde representa el
escenario inducido por la solución .
Con respecto a la complejidad de este problema (Aron & Van Hentenryck, 2004) probaron que
es NP-Hard inclusive si el intervalo de incerteza es igual a , polinomial si el número de aristas con
intervalo de incerteza es fijo o acotado por el logaritmo de una función polinomial de el número total de
aristas. En este mismo trabajo se generaliza el resultado antes mostrado. La clasificación de NP-Hard
del MMR-ST fue probada independientemente por (Aissi et al., 2005). En este trabajo también se
probó para intervalos de costo y además si el grafo es completo.
La primera formulación matemática del modelo MMR-ST fue presentada por (Yaman et al.,
2001), en dicho trabajo también presentan técnicas de pre-procesamiento, el modelo se basa en dos
formulaciones matemáticas, la primera propuesta por (Magnanti & Wolsey, 1995) es la formulación
single commodity model (F1), el segundo modelo utilizado es el problema dirigido de flujo multi-
producto (F2) (Yaman et al., 2001) utiliza ambas formulaciones para representar el MMR-ST, para
representar las aristas de un ST utiliza F1 y para modelar el arrepentimiento del ST utiliza el dual de
F2. Luego la formulación resultante se presenta a continuación.
Irrestricta
32
Esta formulación se aplicó a grafos completos con 10, 15, 20 y 25; la técnica de
preprocesamiento utilizada consistió en identificar aristas fuertes y débiles (strong y weak), con esto
se logró eliminar un porcentaje de éstas, sin embargo los tiempos de ejecución son bastante altos
para instancias de pequeño tamaño como los son las de experimentación.
Con respecto al preprocesamiento, una arista es llamada strong si pertenece a un MST
en algún escenario , donde es el conjunto de escenarios. Una arista es llamada weak si
pertenece a un MST para todos los escenario .
3.3 ALGORITMOS EXACTOS
Posterior al trabajo de (Yaman et al., 2001), se han propuesto algunas alternativas de resolución
exactas; en (Aron & Van Hentenryck, 2004) se muestra un branch and bound (B&B). Este método
mejoró el trabajo de (Yaman et al., 2001) permitiendo resolver instancias de un tipo particular con
tamaño de hasta 40 nodos. Un nuevo algoritmo B&B fué propuesto en (Montemanni & Gambardella,
2005) el cual consideró las instancias utilizadas por los trabajos previos e incluyó un grupo con
metodología de generación distinta. Para ambos grupos de instancias se mejorarón los resultados
obtenidos por (Aron & Van Hentenryck, 2004), según los autores este B&B su esquema de
ramificación fue más fuerte.
Un acercamiento de gran importancia en relación a algoritmos exactos para la resolución del
MMR-ST es el realizado por (Montemanni, 2006). En éste se presenta un algoritmo de
descomposición de Benders, cuya formulación es similar a la de (Yaman et al., 2001) con la única
salvedad de que cambia F1 por una formulación con menos variables pero con más restricciones,
basada en cut-set inequalit. Luego la formulación matemática se presenta a continuación (F3).
Irrestricta
33
La descomposición de Benders es un método clásico de resolución de problema de gran
escala, fue propuesta por primera vez por (Benders, 1962). Para ver detalles de la teoría ver también
(Geoffrion, 1972). A grandes rasgos, esta metodología consiste en dividir el problema general en dos,
un problema maestro y un subproblema. Los resultados de ambos problemas se alimentan de forma
iterativa, luego el problema maestro recibe cortes en cada iteración, los cuales se forman a partir del
resultado obtenido por el dual del subproblema. La solución de este problema se obtiene cuando el
valor del maestro se hace igual al valor del subproblema, pues estos representan la cota inferior y
superior del problema original respectivamente. Aplicaciones de esta metodología han sido muchas y
en variadas áreas ver (Richardson, 1976), (Magnanti et al., 1986), (Cordeau et al., 2000). Estudios
para mejorar el desempeño del algoritmo se muestran en (McDaniel & Devine, 1977) y (Magnanti &
Wong, 1981).
En relación al problema en estudio (MMR-ST), el subproblema primal recibe una solución
que satisfacen las restricciones (4.13) y (4.14) en la primera iteración. Luego deben corresponder a la
solución óptima que satisface las restricciones antes mencionadas más los cortes que se van
generando. Éste puede ser presentado de la siguiente forma:
Irrestricta
Se puede realizar una transformación a la función objetivo y puede ser ajustada a la siguiente
expresión, con el objetivo de tener un problema dual de la forma del MST.
En tanto el modelo del subproblema primal queda de la siguiente forma:
34
irrestricto
Al plantear el dual del subproblema, se obtiene un problema de árbol clásico con un vector de
costos modificado, en la formulación flujo multi-bien. Mayor detalle ver en (Magnanti & Wolsey, 1995).
Finalmente, el problema maestro puede ser formulado como se muestra a continuación, para
mayor detalle ver (Montemanni, 2006).
corresponde a una región factible del problema dual, en tanto corresponde a los puntos
extremos de esta región, además se introduce una variable para extender la definición del problema
maestro.
En (Montemanni, 2006) se compara el rendimiento del Benders propuesto, con el algoritmo
presentado en (Yaman et al. 2001), que se basó en eficientes técnicas de preprocesamiento del
35
modelo, antes de ser entregado a CPLEX (versión 12.3). El segundo parámetro de comparación es el
algorítmo branch and bound propuesto en (Aron & Van Hentenryck, 2002), el tercer y último parámetro
de comparación es el algorítmo branch and bound propuesto por (Montemanni & Gambardella, 2005).
Los resultados presentados en este trabajo demuestran que el número de iteraciones del algorítmo de
descomposición de Benders se incrementa con el número de nodos, como se esperaba, sin embargo
su eficiencia decrece a medida que el paramétro difusor (utilizado para generar instancias) aumenta
su valor. Con respecto a los algoritmos de comparación, Benders es el que obtiene los mejores
resultados.
3.4 HEURÍSTICAS PARA MMR-ST
Como se ha mencionado anteriormente, la alta complejidad del problema MMR-ST no permite obtener
resultados de instancias de tamaño aun pequeño (40 nodos máximo) en un tiempo razonable. Lo
mismo sucede con un grupo no menor de problemas combinatoriales, en mayor (ej. MMR-TSP) o
menor grado (ej. MMR-P). Por el motivo antes presentado, han sido diversas las aproximaciones al
problema a través de heurísticas, sin duda una de las propuestas heurísticas de mayor impacto para
este tipo de problema ha sido la realizada por (Kasperski & Zielinski, 2006), quienes proponen un
algoritmo (Hm) con cota de aproximación 2, esto significa que la peor solución obtenida no tendrá un
valor mayor al doble del óptimo, con la ventaja de conservar la complejidad del problema clásico.
Los algoritmos propuestos por (Kasperski & Zielinski, 2006) se basan en la definición de un
escenario particular, luego se usa este escenario para obtener la solución óptima de un problema
clásico, que también corresponde a una solución factible de un problema MMR. Dos escenarios han
sido propuestos para la aplicación de esta heurística, el escenario del límite superior y el escenario
del punto medio
En la realidad estas heurísticas son complementarias, es decir, dado su bajo tiempo de
ejecución se ejecutan ambas y se selecciona la mejor. Además queda un espacio para probar
distintos escenarios dentro del intervalo de costos y seleccionar la solución que genera el menor
arrepentimiento.
Otra heurística propuesta, en primera instancia para el MMR-TSP en (Mardones, 2010), pero
que puede ser fácilmente generalizada a otros problemas de Optimización combinatorial robusta, es
, esta se fundamenta en el buen rendimiento de la heurística en experimentaciones previas
y en el trabajo realizado por (Montemanni et al., 2007) La idea fundamental de esta heurística es
generar un ranking creciente de costo de soluciones en el escenario . A continuación se muestra el
pseudocódigo de las heurísticas de 1 escenario y de la .
36
Algoritmo Hm (G,c) Algoritmo Hu (G,c)
Input: Grafo G y función de costos c.
Output: Una solución factible Y para MMR-
ST y su arrepentimiento
1. for all do
2.
3. end for
4. Y OPT( )
5. Z(Y) computeRegret(Y)
6. Return Y, Z(Y)
Input: Grafo G y función de costos c.
Output: Una solución factible Y para
MMR-ST y su arrepentimiento
1. for all do
2.
3. end for
4. Y OPT( )
5. Z(Y) computeRegret(Y)
6. Return Y, Z(Y)
Algoritmo n-Hu (G,c)
Input: Grafo G y función de costos c.
Output: La mejor solución factible Y para
MMR-ST y su arrepentimiento
1. for all do
2.
3. end for
4. OPT( )
5. computeRegret( )
6. Return ,
Ambas metodologías pueden ser generalizadas para cualquier escenario, el único paso que
se debe modificar para esto, es el 2 y se debe reemplazar por .
3.5 METAHEURÍSTICAS PARA MMR-ST
Con respecto a los algoritmos metaheurísticos, para el problema MMR-ST las propuestas de este tipo
han sido escasas, siendo las de mayor impacto las propuestas por (Nikulin, 2008) donde se mostró un
simulated annealing y la propuesta por (Kasperski et al., 2012) donde se propuso una algoritmo tabu
search. En SA se utilizaron instancias de 10, 20 y 30 nodos obteniendos resultados razonables,
donde en TS se utilizaron 6 conjuntos de instancias y se demostró la superioridad en relación a SA. A
continuación se explicarán en detalle ambas aproximaciones metaheurísticas.
3.5.1 SIMULATED ANNEALING
Simulated Annealing (SA) en una metaheurístca probabilística, propuesta en (Kirkpatrick, Gellat, &
Vecchi, 1983) y en (Kirkpatrick A. , 1984), generalmente SA encuentra soluciones cercanas al óptimo
en conjuntos de soluciones factibles extensos. SA al igual que Tabu Search (TS) pertenece al
conjunto de heurísticas de búsqueda local, este tipo de algoritmos son una de las alternativas más
37
prominentes para la obtención de soluciones de calidad en POC complejos, este tipo de algoritmos se
basa en la exploración de soluciones vecinas, intentando mejorar la solución actual a través de
cambios locales, el tipo de cambio local es definido por una estructura de vecindario. El algoritmo de
búsqueda local más básico es la mejora iterativa, este algoritmo comienza en una solución inicial y de
forma iterativa intenta mejorar la solución actual, hasta que se cumpla un criterio de parada,
típicamente un número máximo de iteraciones. A continuación se presenta el pseudocódigo de dicho
algoritmo.
Algoritmo Mejora iterativa (G,c)
Input: Graph G(V, E)
Output: Solution S.
1. Compute an initial solution of G
2.
3. while stop criterion = false
4. Find a solution and cost
5. if then
6.
7. end if
8. end while
9. Return ,
SA se diferencia de este algoritmo de mejora iterativa básico, en primer lugar porque permite
salir de óptimos locales a través del criterio de aceptación en base probabilística, es decir, acepta
soluciones peores a la actual en la búsqueda, además para su aplicación se debe especificar el
espacio de búsqueda, estructura de vecindad, función de probabilidad de aceptación, factor de
descenso de temperatura, temperatura inicial, temperatura final y ciclos internos.
En la propuesta hecha por (Nikulin, 2008) los principales aportes están en la definición del
subespacio de búsqueda y la estructura de vecindad, y a continuación se presenta en detalle.
i. Espacio de búsqueda: Un subconjunto del conjunto de aristas puede ser representado
por un vector de variables booleanas donde , donde si la arista
pertenece al actual subconjunto y en caso contrario. En consecuencia un vector
representa el espacio de búsqueda y este es variable en cada iteración.
ii. Estructura de vecindad: Sea el actual espacio de búsqueda, se debe escoger
aleatoriamente , luego se construye el espacio de búsqueda del vecindario
a través de la intervención de . donde si y
en caso contrario. La solución inicial utilizada fue .
38
Tanto la estructura de vecindad como el espacio de búsqueda presentados anteriormente
presentan restricciones, relacionadas con el pre procesamiento del grafo.
Algoritmo Simulated Annealing (G,c)
Input: Graph G(V, E)
Output: Solution .
1. Compute an initial solution of G
2. , ,
3. ComputeRegret( ),
4. while do
5.
6. while do
7. Find a solution and cost
8. ComputeRegret( )
9. if then
10.
11. if then
12.
13. end if
14. end if
15. else
16. ,
17. if then
18.
19. end if
20. end else
21.
22. end while
23. end while
24. Return ,
3.5.2 BÚSQUEDA TABÚ
La metaheurística Búsqueda Tabú (Tabú Search - TS) fue propuesta en Glover (1986), en este
mismo trabajo se introdujo además el término metaheurística, donde la característica principal de TS
es el uso de memoria adaptativa. En relación a la memoria adaptativa de TS, ésta hace uso del
historial del procedimiento de solución, dando énfasis en 4 aristas fundamentales como lo son:
propiedad de ser reciente, frecuencia, calidad e influencia. El pseudocódigo del algoritmo TS se
muestra en seguida.
39
Algoritmo Búsqueda Tabú (G,c)
Input: Graph G(V, E)
Output: Solution .
1. Compute an initial solution of G
2.
3. ComputeRegret( ),
4. while stop criterion = false do
5. the move to is not forbidden or
6. Find a spanning tree of the smallest value of
7.
8. if then
9. , /* A better solution has been found*/
10.
11.
12. end if
13. if then
14. compute a random spanning tree of
15. if then
16. , /* A better solution has been found*/
17. end if
18. Go to line 4 /* Restart the algorithm*/
19. else
20. /* performe the move*/
21. Update TABU
22. end if
23. end while
24. Return ,
Posterior a conocer la estructura general del algoritmo, es importante conocer las características
principales del algoritmo TS propuesto por (Kasperski et al., 2012) para el MMR-ST, estas se
presentan a continuación.
i. Lista Tabú: En el algoritmo TS al igual que SA es posible explorar soluciones con
, con el objetivo de no permanecer en mínimos locales. Una forma de evitar las
oscilaciones alrededor de mínimos locales es almacenar información relacionada con el
desempeño de los movimientos, información que es almacenada en la llamada Lista Tabú.
Esta lista contiene información acerca de movimientos que son prohibidos por un cierto
número de iteraciones.
Sea la solución actual, se realiza un movimiento agregando a la arista a y
se elimina la arista desde , se obtiene la solución desde Con el fin
de evitar volver a estar en , se agrega a la lista dos elementos y
. Esto significa que se prohíbe agregar la arista a la actual solución por
iteraciones y eliminar la arista por iteraciones.
40
ii. Criterio de aspiración: El criterio de aspiración es una condición que permite realizar un
movimiento aunque este esté prohibido, en (Kasperski et al., 2012) se utiliza un criterio donde
siempre se permite mover a soluciones mejores .
iii. Función de memoria a largo plazo: La lista tabú y el criterio de aspiración son consideradas
funciones de memoria a corto plazo de TS. Esto significa que la información almacenada en
estas es perdida después de un número pequeño de iteraciones. Con el fin de lograr una
diversificación global algunas funciones de memoria a largo plazo pueden ser incorporadas.
En (Kasperski et al., 2012) se incorpora un nuevo conjunto de aristas , en la solución
inicial y cada vez que se mejora la solución actual se agrega a todo el conjunto de aristas
que pertenece a . Después que un número de iteraciones se ha cumplido y la solución
actual no mejora, se restaura la solución actual, generando una solución aleatoria del
subgrafo .
Es importante mencionar que en TS se utilizó una solución inicial aleatoria. Según los autores,
después de un proceso de experimentación se llegó al consenso que el esfuerzo computacional para
lograr salir de ese óptimo local es mayor al esfuerzo realizado para converger a una solución de
calidad como las entregadas por estas heurísticas.
41
CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA
MMR-ST
En este capítulo se describe la propuesta de investigación de este trabajo, mencionando aportes
esperados, metodologías de trabajo y modelos implementados.
42
4.1 APORTE DE LA TESIS
Los aportes principales de este trabajo están enfocados en la implementación de nuevos
algoritmos para la resolución de problemas robustos bajo el criterio Min-Max Regret,
particularmente el problema MMR-ST y evaluar su desempeño con respecto a lo propuesto en la
literatura. Adicionalmente, se encuentran mejores soluciones para el conjunto de instancias
propuestas en (Kasperski et al, 2012).
Como se pudo ver en la revisión bibliográfica, los aportes realizados para resolver este tipo de
problemas desde el punto de vista algorítmico no son extensos, en relación a algoritmos exactos
sólo se muestran propuestas de algoritmos Branch & Bound y Descomposición de Benders. Con
respecto a los algoritmos aproximados lo más destacado es Tabu Search, Simulated Annealing y
las heurísticas de un escenario (Hu y Hm). A continuación se presentan los aportes de este trabajo
divididos en dos grupos algoritmos exactos y algoritmos aproximados.
4.1.1 ALGORITMO EXACTOS
Como se ha comentado anteriormente la descomposición de Benders es el algoritmo exacto que
ha entregado los mejores resultados, en tanto es natural proponer alguna variante que pudiese
mejorar su desempeño. El aporte específico que se realizará en este aspecto es implementar
variantes al algoritmo Benders con la formulación cut set inequality mostrada en la literatura en
(Montemanni, 2006), a continuación se presenta el pseucódigo del Benders básico.
Descomposición de Benders Básica (G,c)
Input: Grafo G y función de costos c.
Output: Solución óptima y su arrepentimiento
1. Inicialización
1.1 FOMaestro MIN_INT, FOSubP MAX_INT
1.2 Inicializar Maestro con restricciones no complicantes
1.3 ,
2. while (FOMaestro<FOSubP) do
2.1 Resolver Maestro
2.2 Resolver dual del problema clásico (MST clásico).
2.3 Agregar corte de benders
3. end while
4. Return ,
Las dos extensiones del algoritmo de Benders están inspiradas en el trabajo realizado por
(Pereira & Averbakh, 2011) en el estudio del problema Set Covering robusto. La primera variante
está relacionada con el ingreso de más de un corte por iteración, a diferencia del problema de
Benders básico. Para esto se utilizan n búsquedas locales (n = número de cortes agregados)
43
donde se realice un k-opt para encontrar soluciones similares y posteriormente se genera el corte
por cada solución encontrada. Abajo se muestra el pseudocódigo del algoritmo descomposición de
Benders con múltiples cortes.
Descomposición de Benders con n cortes k-opt (G,c)
Input: Grafo G y función de costos c.
Output: Solución óptima y su arrepentimiento
1. Inicialización
1.1 FOMaestro MIN_INT, FOSubP MAX_INT
1.2 Inicializar Maestro con restricciones no complicantes
1.3 ,
2. while (FOMaestro<FOSubP) do
2.1 Resolver Maestro
2.2 Resolver dual del problema clásico (MST clásico).
2.3 Agregar corte de Benders básico
2.4 Encontrar n soluciones similares a través k-opt
2.5 Ingresar cortes de soluciones similares
3. end while
4. Return ,
La segunda extensión de Benders está relacionada con el uso de las soluciones
incumbentes de CPLEX en la resolución del maestro, es decir, en cada iteración se agrega el corte
del problema básico y los cortes generados por cada solución incumbente encontrada en el
maestro.
Descomposición de Benders con cortes incumbentes (G,c)
Input: Grafo G y función de costos c.
Output: Solución óptima y su arrepentimiento
1. Inicialización
1.1 FOMaestro MIN_INT, FOSubP MAX_INT
1.2 Inicializar Maestro con restricciones no complicantes
1.3 ,
2. while (FOMaestro<FOSubP) do
2.1 Resolver Maestro (guardando soluciones
incumbentes)
2.2 Resolver dual del problema clásico (MST clásico).
2.3 Agregar corte de Benders básico
2.4 Ingresar cortes de soluciones incumbentes
3. end while
4. Return ,
Cabe destacar que el maestro de cada variante es resuelto con un algoritmo Branch and Cut,
implementando heurísticas primales, las cuales se alimentan de la información de cada nodo del
proceso de Branch and Bound. Además, se utilizan los cortes que posee CPLEX por defecto,
44
finalmente las cut-set inequalities son manejadas a través de un algoritmo de flujo máximo de
acuerdo a lo mostrado en (Álvarez-Miranda et al., 2012).
Con respecto a algoritmos exactos en base a ramificación implementados para MMR-ST sólo
se tienen las propuestas de Branch and Bound realizadas en (Aron & Van Hentenryck, 2002) y
(Montemanni & Gambardella, 2005), sin embargo, los resultados no fueron alentadores. Por otra
parte en (Averbakh & Berman, 2005) y (Pereira & Averbakh, 2011) se proponen algoritmos del tipo
Branch and Cut para otros problemas del tipo MMR, basados en Benders cuts. En este trabajo se
propone implementar este tipo de algoritmo al problema MMR-ST, considerando una doble
separación de las restricciones, específicamnente, se dividen las restricciones topológicas del
problema árbol y las restricciones asociadas a la robustez.
En relación a la separación de las restricciones de robustez, luego de una pequeña adaptación
en la formulación la restricción se puede expresar como se muestra en la restricción .
Para este grupo de restricciones se utiliza un conjunto de inicialización que
corresponden a las soluciones inducidas por los escenarios del límite inferior ( ), punto medio ( )
y límite superior ( ). Dentro del proceso de ramificación en cada nodo se buscan cortes violados
utilizando el valor del conjunto de variable para generar , que es calculado como , el
valor de es utilizado como peso de las aristas para aplicar un algoritmo para solución de
, para cada solución encontrada se genera el peor escenario (Teorema 1) y para este
escenario se encuentra la solución óptima . Las soluciones entregadas por corresponden
a la solución actual y soluciones en las cuales se distorsiona el valor de a través de la
multiplicación por un número aleatorio entre . Adicionalmente se generan soluciones
aleatorias con la generación de escenarios donde cada arista toma un valor entre .
Para manejar la topología del problema se manejan dos conjuntos de restricciones
iniciales, las in dregree contraint y las restricciones de subtour basic
La topología dentro del proceso de ramificación es manejado a través cut-set inequalities
que son separadas a través de un algoritmo de flujo máximo como se describe en (Álvarez-Miranda
et. al, 2012).
45
El pseudocódigo del algoritmo se muestra a continuación.
Algoritmo Branch and Cut con cortes de Benders (G,c)
Input: Problema entero con un subconjunto de restricciones.
Output: Solución óptima y su arrepentimiento
1. Ingresar cortes iniciales
2. Encontrar solución factible inicial ,
3. Resolver la relajación lineal (LP)
4. Hasta aquí se cumple
5. Comenzar el proceso de B&B
6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología
7. En cada nodo del B&B aplicar heurísticas primales
8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima.
9. Return ,
Una propuesta de mejora para este algoritmo es mejorar la calidad de los cortes de Benders
ingresados en el proceso de Branch and Bound (B&B), esta idea se basa en el apareamiento de
restricciones, para esto se utiliza un procedimiento propuesto en (Guan et al., 2005).
El esquema de apareamiento se basa en un conjunto de vectores no negativos , luego
un vector define una restricción válida si:
Dadas las dos ecuaciones válidas definidas por los vectores y , la primera definida por
domina a la definida por si para todo y , esta situación se denota
como . De acuerdo a estudios la estructura de los cortes de Benders, no es posible encontrar
dominancia entre diferentes cortes de este tipo, además se descarta que se puedan utilizar las
propiedades para restricciones anidadas (nested) y disjuntas (disjoint).
Al no contar con los casos de restricciones anidadas y disjuntas, no es posible asegurar la
dominancia de la restricción resultante en relación a las restricciones originales, pues existe un
número exponencial de secuencias de apareamiento. Sin embargo, de todas formas se
implementará un procedimiento de apareamiento, que es mostrado a continuación.
Definición: Dados con , se define el pareo de y como,
46
El pseudocódigo implementado para el algoritmo Branch and cut (B&C) con cortes de Benders
y apareamiento de restricciones es el siguiente.
Algoritmo Branch and Cut con cortes de Benders y apareamiento de cortes (G,c)
Input: Problema entero con un subconjunto de restricciones.
Output: Solución óptima y su arrepentimiento
1. Ingresar cortes iniciales
2. Encontrar solución factible inicial ,
3. Resolver la relajación lineal (LP)
4. Hasta aquí se cumple
5. Comenzar el proceso de B&B
6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología, aparear cortes
robustos.
7. En cada nodo del B&B aplicar heurísticas primales
8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima.
9. Return ,
4.1.2 ALGORITMOS APROXIMADOS
Como se evidenció en la revisión bibliográfica, los aportes heurísticos se reducen a dos
metaheurísticas del tipo búsqueda local (SA y TS) y a las heurísticas de un escenario (hu y hm). En
relación a las metaheurísticas en el trabajo de (Kasperski et al., 2012) se menciona el esfuerzo
requerido para salir de las soluciones iniciales hu y hm. En este trabajo se propone una
metaheurísica con la capacidad demostrada de no caer en óptimos locales como lo es GRASP y
una heurística constructiva que utiliza la naturaleza del problema MMR-ST a diferencia de las
heurísticas de un escenario, esta puede ser utilizada complementariamente con GRASP o de
forma individual. Adicionalmente se implementan dos metaheurísticas de búsqueda más simples,
como lo son la mejora iterativa simple y Simulated Annealing. También son implementadas las
heurísticas de un escenario (Hu y Hm).
La metodología GRASP (Greedy Randomized Adaptive Search Procedures) es una
metaheurística para problemas de optimización combinatorial, la cual se fundamenta en la
combinación de heurísticas constructivas y de búsqueda local. Consiste básicamente en aplicar k
búsquedas locales, donde en cada búsqueda se debe partir desde una solución inicial distinta
generada a través de un proceso constructivo con aleatoriedad incorporada. Este metodología fue
47
introducida en los 80' por (Feo & Resende, 1989) y luego se formalizó en (Feo & Resende, 1995),
para revisiones detalladas de la literatura ver (Festa & Resende, 2001), (Festa & Resende, 2008) y
(Festa & Resende, 2008b).
La fase constructiva consiste en generar de forma iterativa una solución factible, añadiendo un
elemento en cada paso. Una función greedy determina la elección del elemento que se añadirá a la
solución en cada iteración, dicha función mide el beneficio de añadir cada uno de los elementos.
Adicionalmente, se dice que el heurístico greedy es adaptativo porque en cada iteración debe
actualizar los beneficios de añadir cada elemento a la solución parcial. La heurística es
aleatorizada (randomized) porque no, necesariamente, se selecciona el mejor candidato según la
función greedy adaptativa, sino que con el objetivo de dar diversidad de soluciones iniciales, se
construye una lista con los mejores candidatos seleccionando uno al azar. Luego el pseudocódigo
del algoritmo GRASP se presenta a continuación.
Algoritmo GRASP (G,c)
Input: Grafo G y función de costos c.
Output: Una solución factible y su arrepentimiento
1. Fase constructiva
1.1 Generar una lista de candidatos mediante una función greedy
1.2 Considerar una lista restringida de los mejores candidatos
1.3 Seleccionar aleatoriamente un elemento de la lista restringida
2. Fase de mejora
2.1 Hacer un proceso de búsqueda local a partir de la solución
construida hasta que no se pueda mejorar más.
3. Actualización
3.1 Si la solución obtenida mejora a la mejor almacenada,
actualizarla.
Return ,
En la literatura no existe una heurística para el MMR-ST con las características que
requiere GRASP (adaptativa, aleatorizada, greedy y constructiva ), luego en este trabajo se
propone una heurística que cumple los requisitos, para poder explicar dicha heurística se deben
considerar los siguientes conceptos.
La idea inicial consiste en generar un criterio de optimización utilizando los datos
intervalares, luego se propone pasar de un grafo con costos (Figura 1) a
un grafo con costos (Figura 2).
48
ILUSTRACIÓN 5. GRAFO G CON DATOS INTERVALARES
ILUSTRACIÓN 6. GRAFO CON NUEVO CRITERIO DE OPTIMIZACIÓN
Definición 1 (Regret local): Se tiene un grafo , donde se asume que falta agregar
sólo un nodo a la solución. Luego el aporte al regret (o regret local) de cada arista se puede
estimar como la máxima diferencia entre el límite superior de dicha arista con el límite inferior del
resto de las aristas que conectan el nodo. El regret local de cada arista se compone de dos aportes
(uno por cada nodo perteneciente a la arista), como se muestra en la figura 3.
49
ILUSTRACIÓN 7. COMPOSICIÓN DEL REGRET LOCAL
A continuación se muestra el cálculo del regret para la arista .
ILUSTRACIÓN 8. CÁLCULO DE REGRET LOCAL PARTE 1
Luego la segunda componente del Regret local se muestra en la figura 4.
50
ILUSTRACIÓN 9. CÁLCULO DEL REGRET LOCAL PARTE II
Finalmente el regret local de la arista se calcula de la siguiente forma:
Utilizando este criterio se puede generar una matriz con el aporte al regret de cada arista,
luego, una alternativa válida consiste en aplicar los algoritmos clásicos para resolver problemas de
árbol (PRIM, KRUSKAL, etc.), a esta matriz. En la experimentación se mostrará el desempeño de
dicha alternativa. Sin embargo el método mostrado anteriormente no cumple con los requisitos
para poder implementar GRASP, luego se genera un método dinámico que cada vez que se
agregue un nodo a la solución se actualice la matriz de aporte al regret, esto en base a que las
aristas ingresadas ya no deben ser utilizadas para el cálculo de los aportes, es importante
mencionar que este algoritmo también puede ser utilizado de forma individual. El pseudocódigo de
este algoritmo se presenta a continuación.
Heurística constructiva (G,c)
Input: Grafo G y función de costos c.
Output: Una solución factible y su arrepentimiento
1. Generar matriz R (aporte al regret)
2. Aplicar algoritmo Prim o Kruskal para ingresar la primera arista.
3. Actualizar matriz R
4. Repetir 2 y 3 hasta que todos los nodos estén en la solución.
Return ,
51
Matemáticamente la generación de la matriz de Regret locales y la respectiva versión
dinámica se realizan siguiendo los pseudocódigos que se presentan a continuación.
Generación de Matriz
Input: Grafo , costos y matriz
Output: Matriz
1. forall (i,j) E
2.
3.
4.
5.
6.
7. end forall
8. return
Algoritmo constructivo dinámico
Input: Grafo , costos y matriz
Output: solution
1. forall (i,j) E
2.
3.
4.
5.
6.
7. end forall
8. select
9. add ( , ) to solution, add and to nodesolution
10. size solution = 1
11. while size
12. forall (i,j) E
13. ,
14. ,
15.
16.
17.
18. end forall
19. select in
20. add to nodesolution, add ) to solution
21. Size solution = size solution + 1
22. end while
23. return solution
52
Otro aspecto importante de los algoritmos metaheurísticos propuestos es la definición de
vecindad. En este trabajo se utilizará la propuesta en (Kasperski et al., 2012), es pseudocódigo de
esta se presenta a continuacón.
Vecindad
Input: Grafo , árbol de expansión de
Output: Vecino
1.
2. Seleccionar aleatoriamente (i,j) E
3. Determinar el conjunto de aristas que están sobre el camino de a en
4. Seleccionar
5. Agregar a
6. return
Gráficamente la descripción de la vecindad se representa en las siguientes imágenes.
ILUSTRACIÓN 10. DEFINICIÓN DE VECINDARIO PARTE I
Agregar aleatoriamente una arista .
ILUSTRACIÓN 11. DEFINICIÓN DE VECINDARIO PARTE II
53
Encontrar el camino que une los nodos .
ILUSTRACIÓN 12. DEFINICIÓN DE VECINDARIO PARTE III
Seleccionar aleatoriamente una arista dentro del camino y eliminarla.
ILUSTRACIÓN 13. DEFINICIÓN DE VECINDARIO PARTE IV
Es importante mencionar que el costo de la nueva solución puede ser calculada de una forma
eficiente en función de la solución anterior de la siguiente forma.
Donde corresponde a la arista agregada a la nueva solución y corresponde a la arista
eliminada.
54
CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE
RESULTADOS
En este capítulo se estudia el desempeño de los diferentes algoritmos implementados, además se
describen los diferentes conjuntos de instancias estudiadas.
55
5.1 DESCRIPCIÓN DE INSTANCIAS
Para la experimentación se utilizó un subconjunto de las instancias propuestas en (Kasperski et al.,
2012), se utilizaron aquellas instancias clasificadas como dificiles (Ya, He0, He1, La y Mo) en el
trabajo antes mencionado, a continuación se describirán los cinco conjuntos de instancias
utilizadas.
Ya( , )- : Grafo completo con nodos. Para cada arista es uniformemente
distribuido en y es uniformemente distribuido en el intervalo , esta clase de instancias
fue propuesta en (Yaman et al., 2001). Existen dos estructuras de costos dentro de este grupo de
instancias (Ya(C,C) y Ya(C,2C)), que por lo demás tienen un impacto en el rendimiento de los
algoritmos, especialmente es el caso de los exactos, en la siguiente tabla se presentan las
variantes utilizadas en la literatura para este conjutno.
TABLA 1. ESTRUCTURA DE COSTOS INSTANCIAS TIPO YAMAN
Set 1 Set 2 Set 3 Set 4 Set 5 Set 6
[0,10) [0,15) [0,20) [0,10) [0,15) [0,20)
( , 10] ( , 15] ( , 20] ( , 20] ( , 30] ( , 40]
He0-n : Esta clase de instancias fue introducida en (Aron & Van Hentenryck, 2002). Un
Grafo representa una red de dos niveles. El nivel inferior consiste de clusters (grafos completos)
de 5 nodos cuyas aristas son generadas como en la clase Ya(10,10)- . El nivel superior vincula los
clusters y estas aristas tienen costos más altos de acuerdo a Ya(10,10)- desplazado por una
constante. En esta clase los grafos son completos y representa el número de nodos en G, que a
la vez representa un múltiplo entero de 5, estas instancias son mostradas en (Kasperski et al.,
2012) como He1-n.
He1-n : Esta clase de instancias también fue introducida en Aron & Van Hentenryck (2002).
y son similares a He0-n, con la excepción de que los vínculos del nivel inferior con el nivel superior
están organizados como un árbol binario, estas instancias son mostradas por (Kasperski et al.,
2012) como He2-n.
Mo(p)-n: Grafo completo con nodos. Estos nodos son aleatoriamente localizados
sobre una grilla de 50 x 50. Para cada arista es seleccionado aleatoriamente en el
intervalo y es generado aleatoriamente en el intervalo , donde
es la distancia euclidiana entre y , y es el parámetro de distorsión. Esta clase instancia fue
estudiada e introducida en (Montemanni & Gambardella, 2005).
La-n : Grafo con nodos, se compone de tres capas. La primera capa está formada por
un grafo completo . La segunda capa está compuesta por nodos, cada nodo de esta
56
capa se conecta con dos nodos (elegidos aleatoriamente) de la primera capa. Finalmente la tercera
capa, contiene un nodo que es conectado con cada nodo de la segunda capa. Todos los intervalos
de costos son . Grafos de este tipo aparecen en (Averbakh & Lebedev, 2004) . En (Kasperski
et al., 2012) clasifican este conjunto de instancias como las más complejas del grupo estudiado.
Cabe mencionar que cada uno de los grupos de instancias posee 10 instancias generadas
bajo el mismo criterio además los tamaños de las instancias que se estudiarán van desde 10 nodos
hasta 100 nodos, éstas fueron entregadas directamente por los autores del trabajo (Kasperski et
al., 2012)
1
.
Todos los algoritmos fueron implementados en C++ utilizando Leda en su versión libre
2
,
para los algoritmos exactos se utilizó la versión IBM ILOG CPLEX Optimization Studio V12.3 y la
máquina utilizada tiene un procesador Intel Core i7-3610QM con 8 GB de RAM.
5.2 PREPROCESAMIENTO
Este análisis consiste en la evaluación del efecto del pre procesamiento, en los diferentes
conjuntos de instancias lo cual también se ha analizado en otros trabajos. Para esto se consideran
promedios de los conjuntos de instancias. Los indicadores utilizados para el análisis son; tamaño
del problema , número de aristas iniciales , promedio de aristas finales , porcentaje promedio
de reducción de aristas , promedio de aristas fuertes y porcentaje promedio de aristas
fuertes . Un segmento de los resultados del pre procesamiento se presentan en las tablas 2 y
3.
Las instancias Mo(0.15) son las que tienen un mayor promedio de aristas fuertes, seguido
por Mo(0.5). Los conjuntos de instancias que tienen menor promedio de aristas fuertes son las Ya.
Con respecto al tamaño del grafo reducido, el conjunto de instancias donde se obtiene el menor
número de aristas son Mo(0.15) y Mo(0.5), transformándose en los conjuntos de instancias más
favorecidos con el pre procesamiento, por ejemplo para Mo(0.15)-30 se tiene en promedio un grafo
final de 38 aristas (solución con 29 aristas) y además 22 aristas están fijas en la solución (aristas
fuertes). Los conjuntos de instancias donde se reduce en menor grado el número de aristas son la
Ya, luego este conjunto de instancias es donde el pre procesamiento tiene un menor impacto.
Con respecto a las instancias He, se puede decir que se encuentran en una posición
intermedia entre Mo(0.15) y las instancias Ya. En el subconjunto He1 el pre procesamiento,
específicamente la reducción, tiene un mayor impacto que en He0, en relación al número de aristas
fuertes se observa un impacto similar. En las instancias Mo(0.85) el pre procesamiento tiene un
1
http://mariusz.makuchowski.staff.iiar.pwr.wroc.pl/www/research/robust.tree/
2
http://www.algorithmic-solutions.com/leda/
57
impacto similar (levemente mejor) a las instancias Ya. Es importante mencionar que para el
conjunto de instancias La el pre procesamiento no tiene ningún efecto.
Al ordenar de mayor a menor impacto del pre procesamiento los conjuntos analizados, se
tiene la siguiente lista: Mo(0.15), Mo(0.5), He1, He0, Mo(0.85), Ya y La. Posteriormente en el
análisis de los algoritmos estudiados se observará que este orden se relaciona casi perfectamente
con el orden en relación a la dificultad del tipo de instancia.
TABLA 2. PRE PROCESAMIENTO DE INSTANCIAS HE Y MO
N
He0-20 20.00 190.00 58.20 69.37% 4.90 2.58%
He0-30 30.00 435.00 98.70 77.31% 8.30 1.91%
He0-40 40.00 780.00 158.20 79.72% 9.90 1.27%
He1-20 20.00 190.00 45.10 76.26% 4.40 2.32%
He1-30 30.00 435.00 72.10 83.42% 6.00 1.38%
He1-40 40.00 780.00 97.80 87.46% 7.70 0.99%
Mo(0.15)-20 20.00 190.00 24.50 87.11% 15.10 7.95%
Mo(0.15)-30 30.00 435.00 38.20 91.22% 22.30 5.13%
Mo(0.15)-40 40.00 780.00 52.20 93.31% 29.60 3.79%
Mo(0.50)-20 20.00 190.00 44.60 76.53% 8.20 4.32%
Mo(0.50)-30 30.00 435.00 70.20 83.86% 12.00 2.76%
Mo(0.50)-40 40.00 780.00 98.00 87.44% 16.20 2.08%
Mo(0.85)-20 20.00 190.00 76.30 59.84% 3.90 2.05%
Mo(0.85)-30 30.00 435.00 133.20 69.38% 4.60 1.06%
Mo(0.85)-40 40.00 780.00 193.80 75.15% 7.40 0.95%
TABLA 3. PRE PROCESAMIENTO DE INSTANCIAS YA
N
Ya(10-10)-20 20.00 190.00 79.70 58.05% 0.90 0.47%
Ya(10-10)-30 30.00 435.00 148.80 65.79% 0.50 0.12%
Ya(10-10)-40 40.00 780.00 229.50 70.58% 0.80 0.10%
Ya(15-15)-20 20.00 190.00 114.00 40.00% 0.60 0.32%
Ya(15-15)-30 30.00 435.00 213.40 50.94% 0.40 0.09%
Ya(15-15)-40 40.00 780.00 331.90 57.45% 0.30 0.04%
Ya(10-20)-20 20.00 190.00 76.50 59.74% 1.40 0.74%
Ya(10-20)-30 30.00 435.00 137.90 68.30% 1.50 0.34%
Ya(10-20)-40 40.00 780.00 215.80 72.33% 1.10 0.14%
Ya(15-30)-20 20.00 190.00 105.70 44.37% 1.00 0.53%
Ya(15-30)-30 30.00 435.00 214.80 50.62% 0.60 0.14%
Ya(15-30)-40 40.00 780.00 330.30 57.65% 0.80 0.10%
58
5.3 ALGORITMOS EXACTOS
Debido a que se tiene una propuesta amplia de algoritmos exactos, su análisis se realizará de
manera parcializada, la primera etapa consiste en evaluar la bondad de las variantes de los
algoritmos de descomposición de Benders. Recordando la propuesta algorítmica se tienen tres
alternativas, el algoritmo de Descomposición de Benders básico (BBD), la versión con la
incorporación de cortes heurísticos (HBD) y la alternativa que incorpora los cortes de las soluciones
incumbentes en la resolución del maestro en cada iteración (EBD). La segunda etapa consistirá en
evaluar el mejor algoritmo del tipo Benders con el algoritmo B&C y el MILP, finalmente la tercera y
última etapa consiste en evaluar el rendimiento del algoritmo B&C para instancias de mayor
tamaño. Para las instancias del tipo La, se presenta un análisis separado, donde se compara la
eficiencia del B&C y el MILP para instancias de hasta 50 nodos; es importante recordar que este
conjunto de instancias es el conjunto que generó mayores problemas a (Kasperski, et al., 2012).
5.3.1 EVALUACIÓN DE VARIANTES DE DESCOMPOSICIÓN DE BENDERS
La experimentación se realiza con instancias de 10, 20 y 30 nodos, para las instancias del tipo
(He0, He1, Mo(0.15), Mo(0.5), Mo(0.85), Ya(10,10), Ya(10,20), Ya(15,15) y Ya(15,30)), cada una
de estas familias de instancias se conforma por 10 instancias generadas bajo las mismas
condiciones. Los análisis para cada familia de instancias (He, Ya y Mo) se realizan por separado,
debido a las diferencias en los desempeños de los algoritmos para cada familia.
En primer lugar se hace un análisis de los tiempos de ejecución para aquellas instancias
donde se logra llegar al óptimo dentro del tiempo límite; en este análisis se considera la instancia
resuelta en el menor tiempo para cada grupo (min), el promedio de los tiempos de las instancias
resueltas dentro del tiempo límite (Av.), la instancia que se resuelve en el tiempo mayor (Max) y
por último se muestra el número de instancias que son resueltas dentro del tiempo límite. Se
considera un tiempo límite de 3.600 segundos.
De la tabla 4 se puede observar que la versión básica del algoritmo de Benders (BBD) es la
que presenta el peor desempeño, siendo dominada en todas las dimensiones evaluadas por
ambas variantes (EBD y HBD). En relación a las variantes propuestas no existe una dominación
por parte de ninguno de los algoritmos. Por ejemplo para las instancias del tipo He1 tanto para 20
como para 30 nodos la versión de Benders con cortes heurísticos (HBD) es la que presenta un
mejor desempeño, tanto en los promedio como en el tiempo máximo. Para las instancias del tipo
He0 los rendimientos son similares con un pequeño margen de ganancia para la versión de
Benders con cortes de soluciones incumbentes (EBD).
Para las instancias del tipo Mo (tabla 5), el desempeño de la versión básica del Benders
(BBD) es dominado en todas las dimensiones por las variantes propuestas, al igual que para el
59
caso de las instancias He. En relación a las variantes, existe un pequeño margen de dominancia
por parte de EBD tanto en los tiempos mínimos como en los promedios. En los tiempos máximos
para gran parte de las instancias es mejor, salvo en los grupos de instancias Mo(0.85) para 20 y 30
nodos donde HBD supera a EBD por aproximadamente 100 y 200 segundos respectivamente,
cabe destacar que el conjunto de instancias (Mo(0.85)) ya con 30 nodos comienza a mostrar su
complejidad. Más adelante se mostrará como uno de los más complejos en estudio.
TABLA 4. TIEMPOS DE EJECUCIÓN HE PARA VARIANTES DE BENDERS RESUELTAS AL ÓPTIMO
BBD EBD HBD
Min Av. Max N Min Av. Max N Min Av. Max N
He0-10 0.12 0.45 1.9 10 0.11 0.34 1.33 10 0.06 0.32 1.19 10
He0-20 1.31 63.12 275.39 10 0.64 46.63 214.56 10 1.25 51.22 240.47 10
He0-30 170.31 1445.07 3176.55 6 104.71 1089.13 2403.56 6 121.51 1045.1 2450.07 6
He1-10 0.13 0.45 1.98 10 0.1 0.31 1.32 10 0.08 0.31 1.18 10
He1-20 2.55 56.92 353.47 10 1.46 34.12 220.6 10 1.4 33.11 197.26 10
He1-30 119.92 1064.08 3443.77 7 56.78 811.69 2740.43 7 65.06 706.5 2471.73 7
Las instancias Ya (tabla 6) se pueden subdividir en dos tipos, Ya(C,C) y Ya(C,2C), luego se
puede observar que la dificultad de las primeras es significativamente superior para los algoritmos
analizados en este momento. En relación al número de instancias resueltas en tiempo límite cabe
destacar que EBD es el ganador, en primer lugar en las instancias Ya(15-30)-30 resuelve 6
instancias y los otros algoritmos sólo resuelven 2, además no es dominado en ningún grupo de
instancias en esta dimensión. Las instancias del grupo Ya(10,10)-30 son de gran dificultad y ningún
algoritmo logra resolver alguna. La versión básica BBD es dominada en el número de instancias
resueltas para los grupos Ya(15,15)-20 y Ya(10,20)-20. En general los tiempos de EBD son
menores, pero esto se ve acentuado en algunos grupos de instancias (por ejemplo en Ya(15,30)-
20, Ya(10,20)-30 y Ya(10,20)-20).
TABLA 5. TIEMPO DE EJECUCIÓN PARA INSTANCIAS MO CON VARIANTES DE BENDERS
BBD EBD HBD
Min Av. Max N Min Av. Max N Min Av. Max N
Mo(0.15)-10 0.02 0.05 0.16 10 0.02 0.03 0.08 10 0.02 0.03 0.05 10
Mo(0.15)-20 0.02 0.13 0.41 10 0.02 0.09 0.22 10 0.02 0.09 0.18 10
Mo(0.15)-30 0.05 1.03 3.53 10 0.03 0.66 2.01 10 0.04 0.72 2.32 10
Mo(0.50)-10 0.03 0.1 0.23 10 0.03 0.09 0.19 10 0.04 0.09 0.23 10
Mo(0.50)-20 0.61 7.57 42.7 10 0.36 5.72 35.24 10 0.49 6.07 36.31 10
Mo(0.50)-30 11.57 144.65 528.34 10 4.73 94.36 357.58 10 7.52 98.53 390.93 10
Mo(0.85)-10 0.03 0.22 0.8 10 0.03 0.16 0.52 10 0.03 0.18 0.71 10
Mo(0.85)-20 2.08 208.28 1803 10 0.84 167.59 1502.53 10 1.94 164.1 1419.39 10
Mo(0.85)-30 67.64 653.65 1924.25 6 48.27 496.09 1672.29 6 62.75 522.81 1484.06 6
60
TABLA 6. TIEMPOS DE EJECUCIÓN PARA INSTANCIAS YA CON VARIANTES DE BENDERS
BBD EBD HBD
Min Av. Max N Min Av. Max N Min Av. Max N
Ya(10-10)-10 0.28 1.9 9.776 10 0.26 1.31 6.19 10 0.18 1.47 7.13 10
Ya(10-10)-20 158.51 770.17 1815.06 3 84.83 472.81 1125.96 3 115.26 547.18 1291.93 3
Ya(15-15)-10 0.08 4.56 26.55 10 0.08 2.94 16.52 10 0.1 3.13 17.31 10
Ya(15-15)-20 169.65 1515.54 3585.49 6 64.15 1203.96 2385.04 7 103.64 1351.43 3363.17 7
Ya(15-15)-30 1439.93 1439.93 1439.93 1 800.37 800.37 800.37 1 1449.05 1449.05 1449.05 1
Ya(10-20)-10 0.29 4.13 12.91 10 0.18 2.76 9.01 10 0.22 3.12 10.99 10
Ya(10-20)-20 41.69 393.2 1244.02 9 17.58 355.57 1847.4 10 22.96 561.59 2575.91 10
Ya(10-20)-30 1326.47 1583.7 1840.93 2 927.16 1052.19 1177.22 2 1275.3 1395.9 1516.5 2
Ya(15-30)-10 0.56 7.87 53.79 10 0.26 5.86 42.44 10 0.41 7.08 51.39 10
Ya(15-30)-20 45.18 205.75 532.51 10 27.56 111.13 316.54 10 40.92 228.23 665.91 10
Ya(15-30)-30 553.92 1005.93 1457.93 2 332.93 1710.65 3089.89 6 488.3 1008.55 1528.8 2
El siguiente análisis es complementario y corresponde a la evaluación de los gaps de
aquellas instancias donde no se logró llegar al óptimo, luego en éste se indica el número de
instancias que llegaron al óptimo de un total de 10 por grupo, se muestra además el gap relativo
entre el UB y LB del algoritmo y finalmente se muestra el gap en relación al mejor de los tres
algoritmos. A continuación se presenta el cálculo de ambos gaps.
El cálculo de las desviaciones utilizadas está dado por, y
, donde corresponde al valor de la mejor solución; puede ser la mejor solución
conocida o la mejor en relación a los algoritmos analizados, para este análisis corresponde a la
mejor en relación a los tres algoritmos analizados.
Para las instancias del tipo He como para las Mo son pocos los grupos donde no se logran
resolver todas (2 He y 1 Mo), adicionalmente los gaps entregados son bastante buenos. De la
tabla 7 se puede apreciar que para estos grupos de instancias el LB provisto por BBD es de menor
calidad, lo cual se fundamenta en el hecho de que el gap de este algoritmo es 0 para los tres
grupos de instancias. Luego su UB es similar al de HBD, por lo que su gap* es mayor por tener un
LB menor.
De la tabla 8 se puede observar que EBD domina a los dos algoritmos restantes en la
dimensión gap* en la mayoría de los grupos de instancias, salvo en Ya(15-15)-20. Entonces, esto
indica que el LB provisto por este algoritmo es superior al de los dos restantes más aun si se
considera que existen grupos donde los otros algoritmos tienen mejor UB (Ya(10-10)-20, Ya(10-
10)-30 y Ya(15-15)-30). En relación al UB medido a través del gap, la versión que obtiene los
mejores resultados para la mayor parte de las instancias (salvo Ya(10-10)-20 y Ya(15-15)-20) es
EBD.
61
TABLA 7. GAP DE INSTANCIAS HE Y MO PARA VARIANTES DE BENDERS SIN OPTIMALIDAD
BBD EBD HBD
N GAP* GAP N GAP* GAP N GAP* GAP
He0-30 6 2% 0% 6 2% 1% 6 1% 0%
He1-30 7 3% 0% 7 2% 0% 7 2% 0%
Mo(0.85)-30 6 1% 0% 7 1% 0% 6 1% 0%
TABLA 8. GAP PARA INSTANCIAS YA CON VARIANTES DE BENDERS
BBD EBD HBD
N GAP* GAP N GAP* GAP N GAP* GAP
Ya(10-10)-20 3 4% 0% 3 3% 1% 3 3% 0%
Ya(10-10)-30 0 22% 1% 0 21% 2% 0 23% 2%
Ya(15-15)-20 6 2% 0% 7 2% 1% 7 1% 0%
Ya(15-15)-30 1 20% 2% 1 17% 2% 1 20% 3%
Ya(10-20)-30 2 14% 3% 3 10% 2% 2 13% 3%
Ya(15-30)-30 2 13% 7% 6 6% 1% 2 12% 6%
Otro análisis importante puede ser realizado graficando el porcentaje de instancias
resueltas en el tiempo; en el Gráfico 1 se presenta una agregación de todas las instancias
evaluadas bajo este análisis. Se puede observar que EBD (cruz roja) se encuentra durante todo el
intervalo evaluado sobre el resto de los algoritmos (BBD y HBD), adicionalmente se aprecia que es
el algoritmo que resuelve en el óptimo el mayor porcentaje de instancias. Por otra parte se observa
que la versión básica de Benders se encuentra por debajo de los otros algoritmos en todo el
intervalo evaluado. Cabe destacar que este análisis es complementario al de porcentaje acumulado
de instancias en función del gap final, es decir, el porcentaje acumulado de instancias para un gap
dado. Del gráfico 2 se puede observar, al igual que en el gráfico 1, que el algoritmo EBD es el que
presenta un mejor desempeño. Esto se basa principalmente en el hecho que siempre tiene un
porcentaje acumulado de instancias mayor para todo gap y además tiene un umbral de gap menor,
pues tiene el 100% de las instancias con gap menor o igual a un 45% (última cruz roja). De
acuerdo al análisis anterior (tablas y gráficos), considerando la dominancia en los tiempos para la
mayor parte de las instancias, la bondad de ambos indicadores de desviación porcentual (gap y
gap*) y el análisis gráfico, se puede concluir que de las variantes de Benders la que presenta un
mejor desempeño es EBD, por lo que de manera natural será el algoritmo seleccionado para medir
su desempeño con B&C y MILP.
62
GRÁFICO 1. PERFIL DE DESEMPEÑO DE LOS TIEMPOS DE RESOLUCIÓN
GRÁFICO 2. PORCENTAJE ACUMULADO DE INSTANCIAS PARA UN GAP DADO
63
5.3.2 ANÁLISIS MILP, EBD Y B&C
Como se mencionó anteriormente la siguiente etapa consiste en comparar el rendimiento del mejor
representante de los algoritmos tipo Benders (EBD), con el MILP y el algoritmo Branch and Cut
(B&C). Este análisis considera instancias de tamaño 20, 30 y 40, para los mismos conjuntos de
instancias que la etapa 1, esto principalmente debido a que es, en este intervalo, donde todos los
algoritmos exactos propuestos en la literatura comienzan a perder efectividad. A continuación se
presenta un análisis de tiempos para cada una de las familias de instancias antes mencionadas.
Para la familia de instancias del tipo He (tabla 9) se puede hacer un primer análisis en
relación al B&C comparado con el EBD, en este contexto se puede observar que EBD es dominado
completamente por B&C y esto se ve reflejado en el número de instancias resueltas dentro del
tiempo límite (He0-30, He0-40, He1-30 y He1-40). Otro análisis está relacionado al rendimiento del
MILP en comparación con el B&C, acá no se observa dominancia, pues para las instancias del He0
B&C logra un desempeño notoriamente superior al MILP, por ejemplo en He0-20 se observa una
diferencia significativa en los tiempos promedio, luego para He0 con 30 y 40 nodos el MILP explota
y no logra resolver ni siquiera una instancia donde el B&C resuelve las 10 y 7, respectivamente.
Para el subconjunto He1 el MILP tiene un rendimiento mejor a B&C obteniendo mejores tiempos y
más importante aún, resolviendo una mayor cantidad de instancias en He1-40. Si bien B&C no
logra dominar al MILP las ocasiones donde el MILP explota son bastante más drásticas que las
oportunidades donde el B&C es superado.
TABLA 9. TIEMPOS DE EJECUCIÓN INSTANCIAS HE PARA MILP, EBD Y B&C
MILP EBD B&C
Min Av. Max N Min Av. Max N Min Av. Max N
He0-20 4.41 25.38 142.29 10 0.64 46.63 214.56 10 0.08 1.93 5.68 10
He0-30 - - - 0 104.71 1089.13 2403.56 6 4.98 114.67 578.11 10
He0-40 - - - 0 2220.6 2220.6 2220.6 1 189.28 1759.71 3069.07 7
He1-20 0.3 3.1 8.92 10 1.46 34.12 220.6 10 0.19 1.41 7.07 10
He1-30 4.28 38.88 145.24 10 56.78 811.69 2740.43 7 3.39 306.03 1487.95 10
He1-40 21.81 312.2 1227.26 9 600.24 600.24 600.24 1 46.3 1218.34 2154.09 5
Para las instancias del tipo Mo (tabla 10) se puede observar que existe una dominancia
absoluta por parte del B&C tanto en relación al MILP como al EBD, esto se ve reflejado tanto en las
dimensiones de tiempo como en el número de instancias resueltas dentro del tiempo límite. Se
pueden observar diferencias dramáticas por ejemplo en los tiempos mínimos para los grupos de
instancias Mo(0.85)-40, Mo(0.85)-30 y Mo(0.50)-40, caso similar ocurre en los tiempos promedios
en las instancias Mo(0.85)-30 y Mo(0.50)-40.
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar
Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar

Contenu connexe

Tendances

Programacion Lineal Entera
Programacion Lineal EnteraProgramacion Lineal Entera
Programacion Lineal EnteraRoger Rodríguez
 
5.0 programación lineal
5.0 programación lineal5.0 programación lineal
5.0 programación linealjaldanam
 
Practicas de-io-con-pom-qm
Practicas de-io-con-pom-qmPracticas de-io-con-pom-qm
Practicas de-io-con-pom-qmFreddy López
 
Flujo a costo minimo
Flujo a costo minimoFlujo a costo minimo
Flujo a costo minimoeduardo307
 
Problema de Asignación
Problema de AsignaciónProblema de Asignación
Problema de AsignaciónJose
 
Ensayo modelo de_transporte
Ensayo modelo de_transporteEnsayo modelo de_transporte
Ensayo modelo de_transporteJhony Navarro
 
Investigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoInvestigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoMari Cruz
 
5.3 arbol expansión minima algoritmo de kruskal
5.3 arbol expansión minima algoritmo de kruskal5.3 arbol expansión minima algoritmo de kruskal
5.3 arbol expansión minima algoritmo de kruskalADRIANA NIETO
 
Programación lineal
Programación linealProgramación lineal
Programación linealMinerva RG
 
5.3 árbol de expansión mínima
5.3 árbol de expansión mínima5.3 árbol de expansión mínima
5.3 árbol de expansión mínimaADRIANA NIETO
 
Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal enteraLenin Melendres
 
Soluciones ejercicios algoritmo de kruskal
Soluciones ejercicios algoritmo de kruskalSoluciones ejercicios algoritmo de kruskal
Soluciones ejercicios algoritmo de kruskalCesar Flores
 
Métodos de optimizacion
Métodos de optimizacionMétodos de optimizacion
Métodos de optimizacionSaid Mora
 
Análisis de sensibilidad.
Análisis de sensibilidad.Análisis de sensibilidad.
Análisis de sensibilidad.Hebzi01
 
5.3 arbol de expansión minima algoritmo de prim
5.3 arbol de expansión minima algoritmo de prim5.3 arbol de expansión minima algoritmo de prim
5.3 arbol de expansión minima algoritmo de primADRIANA NIETO
 

Tendances (20)

Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal entera
 
Programacion Lineal Entera
Programacion Lineal EnteraProgramacion Lineal Entera
Programacion Lineal Entera
 
5.0 programación lineal
5.0 programación lineal5.0 programación lineal
5.0 programación lineal
 
Practicas de-io-con-pom-qm
Practicas de-io-con-pom-qmPracticas de-io-con-pom-qm
Practicas de-io-con-pom-qm
 
Flujo a costo minimo
Flujo a costo minimoFlujo a costo minimo
Flujo a costo minimo
 
Problema de Asignación
Problema de AsignaciónProblema de Asignación
Problema de Asignación
 
Ensayo modelo de_transporte
Ensayo modelo de_transporteEnsayo modelo de_transporte
Ensayo modelo de_transporte
 
Investigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimoInvestigacion de Operaciones-Coste mínimo
Investigacion de Operaciones-Coste mínimo
 
5.3 arbol expansión minima algoritmo de kruskal
5.3 arbol expansión minima algoritmo de kruskal5.3 arbol expansión minima algoritmo de kruskal
5.3 arbol expansión minima algoritmo de kruskal
 
Programación lineal
Programación linealProgramación lineal
Programación lineal
 
Modelo de transporte
Modelo de transporteModelo de transporte
Modelo de transporte
 
5.3 árbol de expansión mínima
5.3 árbol de expansión mínima5.3 árbol de expansión mínima
5.3 árbol de expansión mínima
 
Programacion por metas
Programacion por metasProgramacion por metas
Programacion por metas
 
Programacion lineal entera
Programacion lineal enteraProgramacion lineal entera
Programacion lineal entera
 
Soluciones ejercicios algoritmo de kruskal
Soluciones ejercicios algoritmo de kruskalSoluciones ejercicios algoritmo de kruskal
Soluciones ejercicios algoritmo de kruskal
 
Tazas de rendimiento
Tazas de rendimientoTazas de rendimiento
Tazas de rendimiento
 
Optimizacion de redes
Optimizacion de redesOptimizacion de redes
Optimizacion de redes
 
Métodos de optimizacion
Métodos de optimizacionMétodos de optimizacion
Métodos de optimizacion
 
Análisis de sensibilidad.
Análisis de sensibilidad.Análisis de sensibilidad.
Análisis de sensibilidad.
 
5.3 arbol de expansión minima algoritmo de prim
5.3 arbol de expansión minima algoritmo de prim5.3 arbol de expansión minima algoritmo de prim
5.3 arbol de expansión minima algoritmo de prim
 

En vedette

Algoritmos de kruskal y prim
Algoritmos de kruskal y primAlgoritmos de kruskal y prim
Algoritmos de kruskal y primfher969
 
El problema de la ruta mas corta
El problema de la ruta mas corta El problema de la ruta mas corta
El problema de la ruta mas corta Luis Fajardo
 
Optimizacion De Redes
Optimizacion De RedesOptimizacion De Redes
Optimizacion De RedesHero Valrey
 
El modelo de la ruta mas corta
El modelo de la ruta mas cortaEl modelo de la ruta mas corta
El modelo de la ruta mas cortaAlan Chero
 
Graph problem & lp formulation
Graph problem & lp formulationGraph problem & lp formulation
Graph problem & lp formulationDharmesh Tank
 
Investigación de operaciones
Investigación de operacionesInvestigación de operaciones
Investigación de operacionesFranco Snipes
 
Clase 18. arbol de minima expansión
Clase 18. arbol de minima expansiónClase 18. arbol de minima expansión
Clase 18. arbol de minima expansiónLucas Mosquera
 
5.1 TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES
5.1  TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES5.1  TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES
5.1 TERMINOLOGÍA DE OPTIMIZACIÓN DE REDESADRIANA NIETO
 
Minimum Spanning Tree
Minimum Spanning TreeMinimum Spanning Tree
Minimum Spanning Treezhaokatherine
 
My presentation minimum spanning tree
My presentation minimum spanning treeMy presentation minimum spanning tree
My presentation minimum spanning treeAlona Salva
 
15 distribucion de planta y maquinaria
15 distribucion de planta y maquinaria15 distribucion de planta y maquinaria
15 distribucion de planta y maquinariaAntonio Sanchez
 
Operations research - an overview
Operations research -  an overviewOperations research -  an overview
Operations research - an overviewJoseph Konnully
 

En vedette (18)

Algoritmos de kruskal y prim
Algoritmos de kruskal y primAlgoritmos de kruskal y prim
Algoritmos de kruskal y prim
 
El problema de la ruta mas corta
El problema de la ruta mas corta El problema de la ruta mas corta
El problema de la ruta mas corta
 
13 problema de redes
13 problema de redes13 problema de redes
13 problema de redes
 
20 arbol de_extension_minima
20 arbol de_extension_minima20 arbol de_extension_minima
20 arbol de_extension_minima
 
Optimizacion De Redes
Optimizacion De RedesOptimizacion De Redes
Optimizacion De Redes
 
El modelo de la ruta mas corta
El modelo de la ruta mas cortaEl modelo de la ruta mas corta
El modelo de la ruta mas corta
 
Graph problem & lp formulation
Graph problem & lp formulationGraph problem & lp formulation
Graph problem & lp formulation
 
Investigación de operaciones
Investigación de operacionesInvestigación de operaciones
Investigación de operaciones
 
Clase 18. arbol de minima expansión
Clase 18. arbol de minima expansiónClase 18. arbol de minima expansión
Clase 18. arbol de minima expansión
 
Combinatorial Optimization
Combinatorial OptimizationCombinatorial Optimization
Combinatorial Optimization
 
5.1 TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES
5.1  TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES5.1  TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES
5.1 TERMINOLOGÍA DE OPTIMIZACIÓN DE REDES
 
Minimum Spanning Tree
Minimum Spanning TreeMinimum Spanning Tree
Minimum Spanning Tree
 
Operations research
Operations researchOperations research
Operations research
 
My presentation minimum spanning tree
My presentation minimum spanning treeMy presentation minimum spanning tree
My presentation minimum spanning tree
 
Metodo De Transporte & Transbordo
Metodo De Transporte & TransbordoMetodo De Transporte & Transbordo
Metodo De Transporte & Transbordo
 
ARBOLES DE EXPANSION
ARBOLES DE EXPANSIONARBOLES DE EXPANSION
ARBOLES DE EXPANSION
 
15 distribucion de planta y maquinaria
15 distribucion de planta y maquinaria15 distribucion de planta y maquinaria
15 distribucion de planta y maquinaria
 
Operations research - an overview
Operations research -  an overviewOperations research -  an overview
Operations research - an overview
 

Similaire à Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar

análisis matemático y análisis matemático no estándar
análisis matemático y análisis matemático no estándar análisis matemático y análisis matemático no estándar
análisis matemático y análisis matemático no estándar Maria FJ
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1CarlosRoberto154965
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementalesChristian Infante
 
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)フ乇丂ひ丂
 
Diseños de investigación experimental en psicología.pdf
Diseños de investigación experimental en psicología.pdfDiseños de investigación experimental en psicología.pdf
Diseños de investigación experimental en psicología.pdfmaria799431
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basicaA Javier Santana
 
Pfc itziar angoitia_espinosa
Pfc itziar angoitia_espinosaPfc itziar angoitia_espinosa
Pfc itziar angoitia_espinosaCesar Crespo
 
Aprender a programar, con matlab
Aprender a programar, con matlabAprender a programar, con matlab
Aprender a programar, con matlabCarlos Avila
 
Linear & Logistic Regression Analysis.
Linear & Logistic Regression Analysis.Linear & Logistic Regression Analysis.
Linear & Logistic Regression Analysis.Pablo Vargas Ibarra
 
Algebra Abstracta Teor a y Aplicaciones.pdf
Algebra Abstracta Teor a y Aplicaciones.pdfAlgebra Abstracta Teor a y Aplicaciones.pdf
Algebra Abstracta Teor a y Aplicaciones.pdfAmber Ford
 
Teoria_Combinatoria.pdf
Teoria_Combinatoria.pdfTeoria_Combinatoria.pdf
Teoria_Combinatoria.pdfSelf-Employed
 
Sucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesioSucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesiofernandoDelgadoburne
 
Julca lindley metodología_aup_framework
Julca lindley metodología_aup_frameworkJulca lindley metodología_aup_framework
Julca lindley metodología_aup_frameworkEdgardo Rivera
 

Similaire à Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar (20)

análisis matemático y análisis matemático no estándar
análisis matemático y análisis matemático no estándar análisis matemático y análisis matemático no estándar
análisis matemático y análisis matemático no estándar
 
411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1411681131 inferencia-estadistica-1
411681131 inferencia-estadistica-1
 
Probabilidad y estadistica elementales
Probabilidad y estadistica elementalesProbabilidad y estadistica elementales
Probabilidad y estadistica elementales
 
Algebra
AlgebraAlgebra
Algebra
 
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)
Trabajo Recepcional de Objeto de Aprendizaje (My Chemical App)
 
Diseños de investigación experimental en psicología.pdf
Diseños de investigación experimental en psicología.pdfDiseños de investigación experimental en psicología.pdf
Diseños de investigación experimental en psicología.pdf
 
Tesis (1).pdf
Tesis (1).pdfTesis (1).pdf
Tesis (1).pdf
 
Tesis Educacion 2
Tesis Educacion 2Tesis Educacion 2
Tesis Educacion 2
 
Apuntes de estadistica basica
Apuntes de estadistica basicaApuntes de estadistica basica
Apuntes de estadistica basica
 
Pfc itziar angoitia_espinosa
Pfc itziar angoitia_espinosaPfc itziar angoitia_espinosa
Pfc itziar angoitia_espinosa
 
Aprender a programar, con matlab
Aprender a programar, con matlabAprender a programar, con matlab
Aprender a programar, con matlab
 
Linear & Logistic Regression Analysis.
Linear & Logistic Regression Analysis.Linear & Logistic Regression Analysis.
Linear & Logistic Regression Analysis.
 
Algebra Abstracta Teor a y Aplicaciones.pdf
Algebra Abstracta Teor a y Aplicaciones.pdfAlgebra Abstracta Teor a y Aplicaciones.pdf
Algebra Abstracta Teor a y Aplicaciones.pdf
 
Teoria_Combinatoria.pdf
Teoria_Combinatoria.pdfTeoria_Combinatoria.pdf
Teoria_Combinatoria.pdf
 
Apuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdfApuntes de estadistica basica.pdf
Apuntes de estadistica basica.pdf
 
Tesis ecuador
Tesis ecuadorTesis ecuador
Tesis ecuador
 
Oct2010 josevallejo
Oct2010 josevallejoOct2010 josevallejo
Oct2010 josevallejo
 
Sucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesioSucesiones y series_de_funciones_sucesio
Sucesiones y series_de_funciones_sucesio
 
1 m mate - estudiante (1)
1 m   mate - estudiante (1)1 m   mate - estudiante (1)
1 m mate - estudiante (1)
 
Julca lindley metodología_aup_framework
Julca lindley metodología_aup_frameworkJulca lindley metodología_aup_framework
Julca lindley metodología_aup_framework
 

Plus de Francisco Pérez

2014 vulnerability assesment of spatial network - models and solutions
2014   vulnerability assesment of spatial network - models and solutions2014   vulnerability assesment of spatial network - models and solutions
2014 vulnerability assesment of spatial network - models and solutionsFrancisco Pérez
 
2014 on exact solutions for the minmax regret aspanning tree problem
2014   on exact solutions for the minmax regret aspanning tree problem2014   on exact solutions for the minmax regret aspanning tree problem
2014 on exact solutions for the minmax regret aspanning tree problemFrancisco Pérez
 
2018 algorithms for the minmax regret path problem with interval data
2018   algorithms for the minmax regret path problem with interval data2018   algorithms for the minmax regret path problem with interval data
2018 algorithms for the minmax regret path problem with interval dataFrancisco Pérez
 
Planificación de la producción con múltiples productos y periodos
Planificación de la producción con múltiples productos y periodosPlanificación de la producción con múltiples productos y periodos
Planificación de la producción con múltiples productos y periodosFrancisco Pérez
 
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...Francisco Pérez
 
Simulated annealing for MMR-Path
Simulated annealing for MMR-PathSimulated annealing for MMR-Path
Simulated annealing for MMR-PathFrancisco Pérez
 

Plus de Francisco Pérez (6)

2014 vulnerability assesment of spatial network - models and solutions
2014   vulnerability assesment of spatial network - models and solutions2014   vulnerability assesment of spatial network - models and solutions
2014 vulnerability assesment of spatial network - models and solutions
 
2014 on exact solutions for the minmax regret aspanning tree problem
2014   on exact solutions for the minmax regret aspanning tree problem2014   on exact solutions for the minmax regret aspanning tree problem
2014 on exact solutions for the minmax regret aspanning tree problem
 
2018 algorithms for the minmax regret path problem with interval data
2018   algorithms for the minmax regret path problem with interval data2018   algorithms for the minmax regret path problem with interval data
2018 algorithms for the minmax regret path problem with interval data
 
Planificación de la producción con múltiples productos y periodos
Planificación de la producción con múltiples productos y periodosPlanificación de la producción con múltiples productos y periodos
Planificación de la producción con múltiples productos y periodos
 
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...
Propuesta Algorítmica para el Problema de Árbol de Expansión Bajo el Criterio...
 
Simulated annealing for MMR-Path
Simulated annealing for MMR-PathSimulated annealing for MMR-Path
Simulated annealing for MMR-Path
 

Dernier

Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdf
Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdfPresentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdf
Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdfLuisAlbertoAlvaradoF2
 
Gestion de rendicion de cuentas viaticos.pptx
Gestion de rendicion de cuentas viaticos.pptxGestion de rendicion de cuentas viaticos.pptx
Gestion de rendicion de cuentas viaticos.pptxignaciomiguel162
 
LIC-ZIEGLER-Planificación y Control de Gestión
LIC-ZIEGLER-Planificación y Control de GestiónLIC-ZIEGLER-Planificación y Control de Gestión
LIC-ZIEGLER-Planificación y Control de GestiónBahamondesOscar
 
clase de Mercados financieros - lectura importante
clase de Mercados financieros - lectura importanteclase de Mercados financieros - lectura importante
clase de Mercados financieros - lectura importanteJanettCervantes1
 
Ejemplo Caso: El Juego de la negociación
Ejemplo Caso: El Juego de la negociaciónEjemplo Caso: El Juego de la negociación
Ejemplo Caso: El Juego de la negociaciónlicmarinaglez
 
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESA
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESACOPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESA
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESADanielAndresBrand
 
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsx
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsxINFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsx
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsxCORPORACIONJURIDICA
 
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-Teleconferencia Accionistas Q1 2024 . Primer Trimestre-
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-ComunicacionesIMSA
 
Efectos del cambio climatico en huanuco.pptx
Efectos del cambio climatico en huanuco.pptxEfectos del cambio climatico en huanuco.pptx
Efectos del cambio climatico en huanuco.pptxCONSTRUCTORAEINVERSI3
 
Clima-laboral-estrategias-de-medicion-e-book-1.pdf
Clima-laboral-estrategias-de-medicion-e-book-1.pdfClima-laboral-estrategias-de-medicion-e-book-1.pdf
Clima-laboral-estrategias-de-medicion-e-book-1.pdfConstructiva
 
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docx
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docxPLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docx
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docxwilliamzaveltab
 
AUDITORIAS en enfermeria hospitalaria .pptx
AUDITORIAS en enfermeria hospitalaria .pptxAUDITORIAS en enfermeria hospitalaria .pptx
AUDITORIAS en enfermeria hospitalaria .pptxMatiasGodoy33
 
diseño de redes en la cadena de suministro.pptx
diseño de redes en la cadena de suministro.pptxdiseño de redes en la cadena de suministro.pptx
diseño de redes en la cadena de suministro.pptxjuanleivagdf
 
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAY
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAYPPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAY
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAYCarlosAlbertoVillafu3
 
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptx
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptxINTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptx
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptxRENANRODRIGORAMIREZR
 
Trabajo de Sifilisn…………………………………………………..
Trabajo de Sifilisn…………………………………………………..Trabajo de Sifilisn…………………………………………………..
Trabajo de Sifilisn…………………………………………………..JoseRamirez247144
 
gua de docente para el curso de finanzas
gua de docente para el curso de finanzasgua de docente para el curso de finanzas
gua de docente para el curso de finanzassuperamigo2014
 
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docx
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docxModelo de convenio de pago con morosos del condominio (GENÉRICO).docx
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docxedwinrojas836235
 
EVALUACIÓN PARCIAL de seminario de .pdf
EVALUACIÓN PARCIAL de seminario de  .pdfEVALUACIÓN PARCIAL de seminario de  .pdf
EVALUACIÓN PARCIAL de seminario de .pdfDIEGOSEBASTIANCAHUAN
 

Dernier (20)

Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdf
Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdfPresentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdf
Presentacion III ACTIVIDADES DE CONTROL. IV UNIDAD..pdf
 
Gestion de rendicion de cuentas viaticos.pptx
Gestion de rendicion de cuentas viaticos.pptxGestion de rendicion de cuentas viaticos.pptx
Gestion de rendicion de cuentas viaticos.pptx
 
LIC-ZIEGLER-Planificación y Control de Gestión
LIC-ZIEGLER-Planificación y Control de GestiónLIC-ZIEGLER-Planificación y Control de Gestión
LIC-ZIEGLER-Planificación y Control de Gestión
 
clase de Mercados financieros - lectura importante
clase de Mercados financieros - lectura importanteclase de Mercados financieros - lectura importante
clase de Mercados financieros - lectura importante
 
Ejemplo Caso: El Juego de la negociación
Ejemplo Caso: El Juego de la negociaciónEjemplo Caso: El Juego de la negociación
Ejemplo Caso: El Juego de la negociación
 
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESA
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESACOPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESA
COPASST Y COMITE DE CONVIVENCIA.pptx DE LA EMPRESA
 
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsx
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsxINFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsx
INFORMATIVO CIRCULAR FISCAL - RENTA 2023.ppsx
 
Capitulo-6.ppt-gestión del tiempo en pmi
Capitulo-6.ppt-gestión del tiempo en pmiCapitulo-6.ppt-gestión del tiempo en pmi
Capitulo-6.ppt-gestión del tiempo en pmi
 
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-Teleconferencia Accionistas Q1 2024 . Primer Trimestre-
Teleconferencia Accionistas Q1 2024 . Primer Trimestre-
 
Efectos del cambio climatico en huanuco.pptx
Efectos del cambio climatico en huanuco.pptxEfectos del cambio climatico en huanuco.pptx
Efectos del cambio climatico en huanuco.pptx
 
Clima-laboral-estrategias-de-medicion-e-book-1.pdf
Clima-laboral-estrategias-de-medicion-e-book-1.pdfClima-laboral-estrategias-de-medicion-e-book-1.pdf
Clima-laboral-estrategias-de-medicion-e-book-1.pdf
 
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docx
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docxPLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docx
PLAN LECTOR JOSÉ MARÍA ARGUEDAS (1).docx
 
AUDITORIAS en enfermeria hospitalaria .pptx
AUDITORIAS en enfermeria hospitalaria .pptxAUDITORIAS en enfermeria hospitalaria .pptx
AUDITORIAS en enfermeria hospitalaria .pptx
 
diseño de redes en la cadena de suministro.pptx
diseño de redes en la cadena de suministro.pptxdiseño de redes en la cadena de suministro.pptx
diseño de redes en la cadena de suministro.pptx
 
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAY
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAYPPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAY
PPT DIAGNOSTICO DAFO Y CAME MEGAPUERTO CHANCAY
 
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptx
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptxINTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptx
INTERESES Y MULTAS DEL IMPUESTO A LA RENTA POWER POINT.pptx
 
Trabajo de Sifilisn…………………………………………………..
Trabajo de Sifilisn…………………………………………………..Trabajo de Sifilisn…………………………………………………..
Trabajo de Sifilisn…………………………………………………..
 
gua de docente para el curso de finanzas
gua de docente para el curso de finanzasgua de docente para el curso de finanzas
gua de docente para el curso de finanzas
 
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docx
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docxModelo de convenio de pago con morosos del condominio (GENÉRICO).docx
Modelo de convenio de pago con morosos del condominio (GENÉRICO).docx
 
EVALUACIÓN PARCIAL de seminario de .pdf
EVALUACIÓN PARCIAL de seminario de  .pdfEVALUACIÓN PARCIAL de seminario de  .pdf
EVALUACIÓN PARCIAL de seminario de .pdf
 

Algoritmos para el problema del árbol de expansión robusto con incertidumbre intervalar

  • 1. UNIVERSIDAD DE TALCA FACULTAD DE INGENIERÍA ALGORÍTMOS PARA EL PROBLEMA DEL ÁRBOL DE EXPANSIÓN ROBUSTO CON INCERTIDUMBRE INTERVALAR TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN GESTIÓN DE OPERACIONES Por FRANCISCO JAVIER PÉREZ GALARCE COMISIÓN INTEGRADA POR LOS PROFESORES: Dr. Alfredo Candia Véjar Dr. Fernando Paredes Cajas Dr. Rodrigo Herrera Leiva Marzo, 2013 CURICÓ – CHILE
  • 2.
  • 3. vi
  • 4. vii Esta tesis está dedicada a: Las dos mujeres que me toleraron y acompañaron durante este proceso de intenso trabajo; Soledad Miranda y Francisca Pérez.
  • 5. viii Agradecimientos A toda mi familia, la cual me ha apoyado en cada paso que he dado en mi vida. En especial a "mi amor" Soledad y "mi pequeña" Francisca; por su amor, apoyo y comprensión. A mi maestro Alfredo Candia, por su apoyo, motivación y confianza desde que comenzó mi proceso de magister. A Eduardo Álvarez, por ser mi compañero en este trabajo, brindarme su ayuda y apoyo, incluso desde la distancia. A mis compañeros de magister y pregrado, todos sin distinción son excelentes profesionales y aún mejores personas.
  • 6. ix Resumen Esta tesis aborda el Problema Árbol de Expansión con incertidumbre intervalar en los costos, utilizando el criterio de Min-Max Regret. Varios algoritmos son implementados, tanto exactos como heurísticos. Con respecto a los algoritmos exactos, se implementan Descomposición de Benders y Branch and Cut, ambos incluyen variantes. Branch and Cut logra superar al resto de los algoritmos, incluso obteniendo gaps menores a un 10%, para 100 nodos, en un conjunto de instancias. En relación a las heurísticas, se desarrolla una heurística constructiva, la que utiliza la información de los intervalos, a diferencia de todas las aproximaciones de la literatura. Se proponen metaheurísticas basadas en Búsqueda Local (Mejora iterativa, Simulated Annealing y GRASP), se obtienen gaps de calidad, incluso para las instancias más complejas. Se realiza una comparación desde un punto de vista experimental, mostrando un buen desempeño, pues se igualan o mejoran los resultados existentes. Palabras clave: Incertidumbre, Min-Max Regret, Árbol de expansión. Abstract This thesis addresses The Robust Spanning Tree Problem with interval uncertainty in data costs, using the Min-Max Regret criterion. Several algorithms are implemented, both exact as heuristic. With respect to exact algorithms are implemented Benders decomposition and Branch and Cut, and both include some variants. Branch and Cut can ourperform the rest of the algorithms, obtaining gaps below 10% for instances with 100 nodes in a set of instances. In relation to heuristics, a constructive heuristic is developed, which uses the information of the intervals, and different to the known approaches from the literature, that only work with scenarios. Metaheuristics based on Local Search (iterative improvement, simulated annealing and GRASP) are proposed and they got quality gap, even for more complex instances . A comparison is made from an experimental point of view, showing a good performance, improving existing results for some group of instances. Key Words: Uncertainty, Min-Max Regret, Spanning Tree.
  • 7. x ÍNDICE CAPÍTULO I: INTRODUCCIÓN...................................................................................................................... 14 1.1 Contextualización .............................................................................................................. 15 1.2 Manejo de Incertidumbre................................................................................................... 17 1.3 Objetivos............................................................................................................................ 18 1.3.1 Objetivos específicos..................................................................................................... 18 1.4 Estructura de la tesis......................................................................................................... 19 CAPÍTULO II: MODELO MINMAX REGRET................................................................................................... 20 2.1 Descripción General.......................................................................................................... 21 2.2 Modelo Min-Max Regret ................................................................................................... 22 CAPÍTULO III: MIN-MAX REGRET SPANNING TREE..................................................................................... 28 3.1 Formulaciones para MST ................................................................................................. 29 3.2 Definición del MMR-ST ..................................................................................................... 30 3.3 Algoritmos exactos ............................................................................................................ 32 3.4 Heurísticas para MMR-ST................................................................................................ 35 3.5 Metaheurísticas para MMR-ST ........................................................................................ 36 3.5.1 Simulated annealing...................................................................................................... 36 3.5.2 Búsqueda tabú .............................................................................................................. 38 CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA MMR-ST ...................................................................... 41 4.1 Aporte de la Tesis.............................................................................................................. 42 4.1.1 Algoritmo exactos.......................................................................................................... 42 4.1.2 Algoritmos aproximados................................................................................................ 46 CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE RESULTADOS.................................................................. 54 5.1 Descripción de instancias........................................................................................................ 55 5.2 Preprocesamiento ............................................................................................................. 56 5.3 Algoritmos Exactos............................................................................................................ 58 5.3.1 Evaluación de variantes de Descomposición de Benders ............................................ 58 5.3.2 Análisis MILP, EBD y B&C ............................................................................................ 63
  • 8. xi 5.3.3 Análisis del comportamiento de B&C............................................................................ 69 5.3.4 Análisis de instancias La............................................................................................... 72 5.4 Experimentación de algoritmos aproximados. .................................................................. 73 5.4.1 Análisis de heurísticas básicas ..................................................................................... 73 5.4.2 Análisis de metaheurísticas........................................................................................... 78 CAPÍTULO VI: CONCLUSIONES Y TRABAJOS FUTUROS................................................................................ 84 Referencias Bibliografía ............................................................................................................................. 87 Anexo 1: Estadísticas de heurísticas........................................................................................................... 93 Anexo 2: Parámetros GRASP...................................................................................................................... 97 ÍNDICE DE TABLAS Tabla 1. Estructura de costos instancias tipo yaman........................................................................ 55 Tabla 2. Pre procesamiento de instancias He y Mo ......................................................................... 57 Tabla 3. Pre procesamiento de instancias Ya................................................................................... 57 Tabla 4. Tiempos de ejecución He para variantes de Benders resueltas al óptimo......................... 59 Tabla 5. Tiempo de ejecución para instancias Mo con variantes de Benders ................................. 59 Tabla 6. Tiempos de ejecución para instancias Ya con variantes de Benders ................................ 60 Tabla 7. Gap de instancias He y Mo para variantes de Benders sin optimalidad ............................ 61 Tabla 8. Gap para instancias Ya con variantes de Benders............................................................. 61 Tabla 9. Tiempos de ejecución instancias He para MILP, EBD y B&C ............................................ 63 Tabla 10. Tiempo de ejecución instancias Mo para MILP, EBD y B&C ........................................... 64 Tabla 11. Tiempos de ejecución instancias Ya para MILP, EBD y B&C .......................................... 65 Tabla 12. Desviación porcentual instancias He para MILP, EBD y B&C.......................................... 66 Tabla 13. Desviación porcentual instancias Mo para MILP, EBD y B&C ......................................... 66 Tabla 14. Desviación porcentual instancias Ya para MILP, EBD y B&C.......................................... 66 Tabla 15. Análisis de tiempo de B&C para instancias Ya de mayor tamaño................................... 69 Tabla 16. Análisis de tiempo instancias He de mayor tamaño para B&C ........................................ 70 Tabla 17. Análisis de tiempo instancias Mo de mayor tamaño para B&C........................................ 70 Tabla 18. Gap de instancias Ya de mayor tamaño para B&C .......................................................... 71 Tabla 19. ANálisis de desviaciones porcentuales para B&C en instancias mayores tipo He .......... 72 Tabla 20. Análisis instancias MO para B&C en tamaños mayores................................................... 72 Tabla 21. Análisis de tiempos instancias La..................................................................................... 73 Tabla 22. Análisis de gap instancias La............................................................................................ 73
  • 9. xii Tabla 23. Análisis de heurísticas instancias Ya(C,C) ....................................................................... 74 Tabla 24. Análisis de heurísticas instancias Ya(C,2C) ..................................................................... 75 Tabla 25. Análisis de heurísticas instancias Mo ............................................................................... 75 Tabla 26. Análisis de heurísticas instancias He................................................................................ 75 Tabla 27. Muestra de estadísticas de heurísticas para Ya(C,C) ...................................................... 76 Tabla 28. Muestra de estadísticas de heurísticas para Ya(C,2C) .................................................... 76 Tabla 29. Muestra de estadísticas de heurísticas para He............................................................... 77 Tabla 30. Muestra de estadísticas para heurísticas de Mo .............................................................. 78 Tabla 31. Mínima (min), promedio (av.) y máxima desviación porcentual desde solución de referencia para instancias con 100 nodos. ....................................................................................... 80 Tabla 32. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de referencia para instancias con 80 nodos. ......................................................................................... 81 Tabla 33. Mínima (min), promedio (av.) Y máxima desviación porcentual desde solución de referencia para instancias con 60 nodos. ......................................................................................... 82 Tabla 34. Estadísticas de heuríticas Ya(c,c)..................................................................................... 93 Tabla 35. Estadísticas de heurísticas Ya(C,2C) ............................................................................... 94 Tabla 36. Estadísticas heurísticas He............................................................................................... 95 Tabla 37. Estadísticas heurísticas Mo .............................................................................................. 96 Tabla 38. Resultados de GRASP para 100 nodos con distintos conjuntos de parámetros por familia de instancias...................................................................................................................................... 97 ÍNDICE DE ILUSTRACIONES Ilustración 1. Cálculo del regret parte I ............................................................................................. 24 Ilustración 2. Cálculo del regret parte II ............................................................................................ 25 Ilustración 3. Cálculo del regret parte III ........................................................................................... 25 Ilustración 4. Cálculo del regret parte IV ........................................................................................... 25 Ilustración 5. Grafo G con datos intervalares.................................................................................... 48 Ilustración 6. Grafo con nuevo criterio de optimización .................................................................... 48 Ilustración 7. Composición del regret local ....................................................................................... 49 Ilustración 8. Cálculo de regret local parte 1..................................................................................... 49 Ilustración 9. Cálculo del regret local parte II .................................................................................... 50 Ilustración 10. Definición de vecindario parte I ................................................................................. 52 Ilustración 11. Definición de vecindario parte II ................................................................................ 52 Ilustración 12. Definición de vecindario parte III ............................................................................... 53 Ilustración 13. Definición de vecindario parte IV ............................................................................... 53
  • 10. xiii ÍNDICE DE GRÁFICOS Gráfico 1. Porcentaje de instancias resueltas para un tiempo dado................................................. 62 Gráfico 2. Porcentaje acumulado de instancias para un gap dado .................................................. 62 Gráfico 3. Porcentaje acumulado de instancias v/s tiempo para MILP, EBD Y B&C ....................... 68 Gráfico 4. Porcentaje acumulado de instancias v/s gap para MILP, EBD Y B&C ............................ 68
  • 11. CAPÍTULO I: INTRODUCCIÓN Este capítulo tiene por objetivo dar a conocer la problemática, en particular, con la que se trabaja, posteriormente se presentan los objetivos del trabajo. Finalmente, se describe la contribución que se realizó.
  • 12. 15 1.1 CONTEXTUALIZACIÓN Dentro de la Investigación de Operaciones (IO) una de las áreas más desarrolladas es la optimización en redes. Los problemas del área han cautivado el interés de los investigadores de ésta y muchas otras áreas de investigación, que incluso escapan del contexto de la ingeniería, tales como ciencias de la computación, matemática y biología, por nombrar algunas. Dicha relevancia se debe principalmente a la gran variedad de situaciones que pueden ser modeladas en redes. Los estudios de optimización en redes se pueden relacionar con diversas áreas de aplicación, que van desde problemáticas básicas de logística, hasta el modelamiento de redes sociales. Los problemas en redes tienen la propiedad de poder ser representados de forma simple a través de grafos. Para mayor detalle al respecto de los conceptos y propiedades básicas de la teoría de grafos ver (Godsil & Royle, 2001). Una gran cantidad de problemas en grafos pueden ser modelados a través de la optimización combinatorial (CO), donde las restricciones buscan dar una topología particular a la solución, por ejemplo: un tour para el caso del problema del vendedor viajero (TSP), un camino para el caso del problema del camino más corto (SP) o un árbol para el caso del problema del árbol de expansión mínima (MST). La función objetivo busca optimizar una función de costos asociada a dicha estructura. Dentro de los problemas de optimización combinatorial en redes, uno de los más estudiados es el MST. Este problema se define sobre un grafo conexo y no dirigido , donde es un conjunto finito de vértices, que dependiendo de la aplicación pueden representar terminales, estaciones de telecomunicaciones, etc.; corresponde al conjunto de aristas, que representan los enlaces entre los vértices, cada una de estas conexiones tiene un número positivo- real asociado, el cual se denota como , que asocia el peso de ir del vértice al , el cual puede representar costo, tiempo, distancia, etc. Un árbol de expansión (ST) corresponde a un conjunto de n nodos y aristas, con la propiedad de conectar todos los vértices del grafo , luego un MST es el conjunto de aristas que conectan todos los vértices del grafo al menor costo posible. Este problema fue propuesto en diferentes contextos antes del siglo XX, sin embargo, su primera formulación matemática se presentó en 1926, por Boruvka (1926), quién según la historia, tuvo que aprender de dicho problema por petición de un amigo (Jindrich Saxel, empleado de un planta eléctrica), durante la electrificación del sur de Moravia, en la República Checa. Fue para resolver esta problemática, netamente práctica, donde se proporcionó el primer algoritmo conocido para resolver el MST; convencido del gran aporte realizado, Boruvka, el mismo año, publicó otro artículo en donde abordó con mayor detalle la contribución realizada (Boruvka, 1926b). Posteriormente, Vojtech Jarník, otro matemático checo, al darse cuenta de la importancia del
  • 13. 16 trabajo realizado por Boruvka (1926) y considerando que la solución propuesta en dicho trabajo, desde su punto de vista era muy complicada, trabajó por lo tanto en una solución alternativa, para posteriormente enviarla a través de una carta a Boruvka y, finalmente, publicar un artículo con el mismo nombre de (Boruvka, 1926) con el subtítulo From the letter to Mr. Boruvka (Jarník, 1930). Traducciones de los trabajos de Boruvka y Jarník son presentadas en (Nesetril et al., 2001) y (Korte & Nesetril, 2001b) respectivamente. En la década de los 50’, con la aparición de los primeros computadores, surgieron numerosos estudios importantes, donde destacan los realizados por (Prim, 1957), quien de forma independiente a (Jarník, 1930) propone una alternativa semejante y (Kruskal, 1956) el cual propone una tercera alternativa de solución a la problemática. Si bien hasta la fecha se siguen proponiendo nuevos algoritmos, son estos trabajos los que juegan el rol principal en la historia del MST. Para una revisión completa de los aportes realizados respecto al MST ver (Graham & Hell, 1985), (Magnanti & Wolsey, 1995), (Nesetril, 1997) y (Nesetril et al., 2001). Los problemas de árbol han llamado el interés de la investigación de operaciones por diversas razones, en primer lugar por su gran aplicabilidad, debido a que las aplicaciones naturales de dicho problema están relacionadas con sistemas de comunicación, tales como: redes telefónicas, eléctricas, hidráulicas, de televisión por cable, computacionales y de transporte. Sin embargo, con el transcurso del tiempo este modelo ha sido propuesto para resolver problemáticas de diferente índole. Algunos trabajos en donde se muestra la diversidad de aplicaciones son: Reconocimiento de filogenia de imágenes en (Rocha & Dias, 2012), Análisis de Jerarquía celular en (Kiranyaz & Gabbouj, 2007), Problemas de localización (Tamir, 2000), diseño de algoritmos para clustering dentro del contexto de data mining (Huang & Li, 2007), diseño de sistemas energéticos eficientes (Zhang, Li, & Lim, 2010), (Li et al., 2011), análisis de crisis financieras (Zhang, et al., 2011), telecomunicaciones (Santos et al. 2008). Otras aplicaciones básicas se pueden encontrar en (Ahuja et al., 1995). Otro factor que ha gatillado el profundo estudio de árboles está dado por la facilidad (algoritmos de tiempo polinomial) con la que se puede resolver el MST clásico, esto ha permitido que todas las aplicaciones antes nombradas hayan sido viables computacionalmente. Un tercer punto de gran importancia es que los árboles están presentes en un área de gran importancia como lo es la optimización en redes, es más, los árboles representan uno de los modelos más básicos para el diseño de redes. Finalmente, los modelos de árbol representan un problema tipo para muchos problemas de optimización combinatorial, por lo que las técnicas estudiadas en éste pueden ser replicadas para esta clase de problemas. Para mayor detalle de las propiedades del MST que han despertado el interés de los investigadores ver (Magnanti & Wolsey, 1995).
  • 14. 17 1.2 MANEJO DE INCERTIDUMBRE Una de las discusiones presentes desde los orígenes de la investigación de operaciones es la incerteza en los parámetros. Los modelos en forma clásica trabajan bajo el supuesto de que los datos son conocidos, es decir, su naturaleza es determinista. En la práctica trabajar bajo este supuesto es poco realista, la forma tradicional para obviar dicho supuesto es la programación estocástica, sin embargo, esta metodología implica realizar otra afirmación importante, pues requiere definir una distribución de probabilidad, lo cual muchas veces es una tarea titánica y asumir una equivocada, puede generar errores de gran magnitud. Algunos factores que pueden llevar a tener una incorrecta distribución de probabilidad son: poca cantidad de observaciones, muestra inadecuada, errores en proceso de muestreo, desconocimiento del tomador de decisión de la gama de distribuciones de probabilidad existentes, etc. Dada la dificultad para determinar una distribución de probabilidad, durante las últimas décadas ha tomado gran importancia una nueva línea de investigación, la cual trabaja la incertidumbre mediante datos intervalares, donde no se tiene conocimiento con respecto a su distribución de probabilidad. Dicha propuesta de modelamiento de la incertidumbre ha recibido el nombre de optimización robusta. Los acercamientos a la Optimización Robusta han sido diversos y se pueden observar a lo menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax (y Minmax Regret) es presentado en la década de los 90’ en términos de optimización robusta, este trabaja los datos de forma intervalar y consideran diferentes criterios para la evaluación de la optimalidad, una compilación de resultados importante es mostrada en (Kouvelis & Yu, 1997). Otra importante fuentes de investigación relevante, es la propuesta por Bertsimas en sus trabajos (Bertsimas & Sim, 2003) y (Bertsimas & Sim, 2004), este se ha convertido en uno de los más importantes modelos en el contexto de la optimización robusta. La característica principal de este enfoque con datos intervalares es que deriva en un modelo de programación lineal entera que conserva la complejidad del problema original. Un tercer acercamiento para el tratamiento de la incertidumbre es el realizado por Ben-Tal, Nemirovski y Ghaoui (2009), donde se trabaja la incertidumbre como perteneciente a elipsoides, conformando un problema de optimización convexa, una excelente referencia se presenta en el libro (Ben Tal et al., 2009). El último y más reciente acercamiento, es el propuesto por (Chen et al., 1997) con un enfoque un tanto distinto, el cual tiene por objetivo minimizar el riesgo. Para mayor detalle del último acercamiento, ver los siguientes trabajos (Chen et al., 2009), (Chen, et al., 2009b), (Álvarez-Miranda et al., 2010) y (Álvarez-Miranda et al., 2011). En este trabajo se profundizará en el modelo Min-Max Regret (MMR) que en particular ha capturado gran atención; diferentes modelos han sido estudiados bajo este concepto; Camino más
  • 15. 18 corto, de ahora en adelante SP (Shortest Path) (Karasan et al. 2001), MST (Yaman et al., 2001), problemas de localización, de ahora en adelante LP (Location Problem) (Averbakh & Berman, 2005), vendedor viajero, de ahora en adelante TSP (Traveling Salesman Problem) (Montemanni et al., 2007). Una característica importante de los Modelos de tipo MMR es que usualmente modelos que en la versión clásica son fáciles de resolver (tiempo polinomial) en la contraparte robusta se convierten en problemas NP-Hard. El MMR-ST (MinMax Regret Spanning Tree) es un problema que merece ser estudiado, por diversas razones: desafío algorítmico dado por la complejidad del problema, estructura particular que le permite ser un problema tipo (problema anidado MinMax). Luego, las técnicas utilizadas en este pueden ser replicadas a una gran cantidad de problemas en redes, fácil interpretación de la modelación, facilidad de obtención de los parámetros de entrada a diferencia de la programación estocástica, etc. 1.3 OBJETIVOS Estudiar y resolver el problema del Árbol de Expansión Robusto con datos intervalares a través del modelo Min-Max Regret (MMR-ST), mediante algoritmos heurísticos, meta-heurísticas y métodos exactos. 1.3.1 OBJETIVOS ESPECÍFICOS  Revisión bibliográfica de los métodos de optimización robusta con incertidumbre intervalar, con énfasis en el criterio de MMR.  Revisión bibliográfica de algoritmos exactos para solución del MMR-ST e implementar la (s) mejores alternativas.  Revisión bibliográfica y/o meta-heurísticas para la solución del MMR-ST e Implementar la (s) mejores alternativas.  Diseñar e implementar variantes de los algoritmos encontrados en la literatura, tanto para algoritmos heurísticos, meta-heurísticas como métodos exactos.  Analizar y confrontar los resultados obtenidos por los diferentes algoritmos heurísticos y exactos implementados.
  • 16. 19 1.4 ESTRUCTURA DE LA TESIS El presente trabajo está organizado de la siguiente forma: en la sección 2 se entregan los fundamentos generales de la optimización robusta con especial énfasis en el modelo MMR, se muestran las motivaciones de su uso, se presenta la generalización matemática de un modelo de optimización combinatorial (CO) bajo este modelo. Además, se presenta una recopilación de estudios de su complejidad. En la sección 3, se formaliza el MMR-ST, primero, entregando los fundamentos de las formulaciones matemáticas del problema clásico, y luego, presentando una revisión de los algoritmos exactos y las heurísticas propuestas para la resolución de éste. En la sección 4, se presenta el aporte de esta tesis, es decir, se da una descripción detallada de los algoritmos tanto exactos como heurísticos propuestos para la resolución del problema en estudio. Los resultados de la experimentación son expuestos en la sección 5, acá se presenta además el conjunto de instancias utilizado para el análisis, en este apartado se entrega un análisis exhaustivo de los diferentes algoritmos utilizados. Finalmente, en la sección 6 se despliegan las conclusiones y los posibles trabajos futuros relacionados.
  • 17. CAPÍTULO II: MODELO MINMAX REGRET En este capítulo se introduce la teoría actual de la optimización robusta con incertidumbre intervalar, dando especial énfasis en la metodología MMR.
  • 18. 21 2.1 DESCRIPCIÓN GENERAL Desde los orígenes de la investigación de operaciones la incerteza ha despertado el interés por parte de los investigadores. Los modelos de investigación de operaciones en forma clásica trabajan bajo el supuesto de que los datos son conocidos, es decir, su naturaleza es determinista, esta condición es convencionalmente aceptada, sin embargo en ocasiones no considerar la incerteza puede no ser lo más adecuado, el primer acercamiento a la incerteza en un modelo matemático fue realizado por (Dantzig, 1955); a partir de este trabajo nació una de las técnicas más tradicionales para trabajar incerteza, como lo es la programación estocástica, excelentes referencias para profundizar en el tema se presentan en los libros (Uryasev & Pardalos, 2001), (Schneider & Kirkpatrick, 2006) y (Marti, 2008). Esta metodología implica realizar otra afirmación importante, pues requiere definir una distribución de probabilidad; en ocasiones asumir un distribución de probabilidad es una tarea titánica y asumir una equivocada puede generar errores de gran magnitud. Otra aproximación para el tratamiento de la incerteza corresponde a la incertidumbre difusa, la cual se basa en la determinación de una pertenencia gradual, que está dada por una función (función de pertenencia). Este acercamiento al igual que la programación estocástica requiere de una definición de parámetros, el origen de estos modelos está en el trabajo presentado por (Bellman & Zadeh, 1970), un poco de la historia de esta línea de investigación se puede revisar en el libro de (Zimmermann, 2005). Durante las últimas dos décadas ha surgido una nueva línea de investigación que trabaja la incertidumbre de forma determinística, también conocida como optimización robusta (OR). La característica principal es que tanto eventos con alta probabilidad de ocurrencia como eventos con baja probabilidad de ocurrencia tienen la misma importancia. El origen de esta aproximación a la incertidumbre es variado y sus principales precursores pertenecen a las ciencias aplicadas, donde destacan la estadística robusta (Huber & Ronchetti, 2009), el aprendizaje automático (Mitchell, 1997), el control robusto (Dullerud & Paganini, 2010) y obviamente la teoría de optimización. El objetivo de esta rama de investigación es buscar soluciones que entreguen cierta protección al tomador de decisión ante escenarios poco favorables. Los acercamientos a la optimización robusta han sido diversos y se pueden observar a lo menos 4 fuentes de investigación, cada una con sus propias características. El modelo MinMax es presentado en la década de los 90’ en términos de optimización robusta. Éste trabaja los datos de forma intervalar y considera diferentes criterios para la evaluación de la optimalidad. Una compilación de resultados importante es mostrada en (Kouvelis & Yu, 1997), quienes fueron pioneros en la adaptación de robustez a problemas de optimización combinatorial. Otra fuente de información de
  • 19. 22 gran relevancia, y más actualizada para este tipo de modelos, es la presentada por (Kasperski A. ,2008). En este trabajo se estudiará en más detalle el modelo MMR, en tanto, continuación se profundizará en sus características. 2.2 MODELO MIN-MAX REGRET Los modelos MMR han capturado gran atención dentro de la investigación de operaciones, diferentes aplicaciones han sido estudiadas bajo este concepto: camino más corto (SP) (Karasan et al. 2001), Árbol de expansión (ST) (Yaman et al., 2001), Problemas de localización (LP) (Averbakh & Berman, 2005), vendedor viajero (TSP) (Montemanni et al., 2007), por mencionar algunos. En éstos y en un gran conjunto de trabajos adicionales, se ha analizado el modelo MMR desde diferentes perspectivas, tales como complejidad computacional, algoritmos exactos y heurísticas. Más adelante se verán en un mayor detalle los principales aportes en cada una de las perspectivas. En relación a las aplicaciones se han realizado numerosos esfuerzos para resolver situaciones reales. Ejemplos de esto son algunos trabajos que se mostrarán inmediatamente. En (Luolou & Kanudia, 1999) se utiliza una formulación para un problema relacionado con estrategias de disminución de emisiones de gas en invernaderos, Dicho estudio se llevó a cabo en la provincia de Québec en Canadá. En esta investigación se realizan interesantes comparaciones con una formulación de programación estocástica para el mismo problema. En los trabajos de (Chang & Davila, 2006) y (Chang & Davila, 2007) se utiliza el modelo MMR para abordar la problemática de la gestión de residuos sólidos. En el trabajo del año 2006 se utilizan técnicas de grey programming combinadas con una formulación MMR; posteriormente en (Chang & Davila, 2007) abordan el problema utilizando una formulación MIP para el modelo MMR, la metodología fue aplicada en el Valle Rio Grande (TX, USA). Otro trabajo interesante es presentado en (Kasakci et al., 2007) donde es desarrollado un modelo híbrido a través de Programación Lineal Intervalar (ILP) y la formulación del modelo MMR. En este estudio se analizó la localización de granjas destinadas a la fabricación de biocombustible en Francia. El modelo MMR pertenece a la familia de modelos Min-Max donde se modela la incertidumbre a través de datos intervalares o escenarios discretos. Para el caso de los datos intervalares, a cada parámetro se conoce el valor de su lower y upper bound, pudiendo tomar un valor dentro de este intervalo, que por lo demás, es independiente de los valores del resto de los parámetros. Cuando un conjunto de parámetros toma valores, se obtiene un escenario, lo que significa que cada combinación de parámetros determina un escenario particular, se tiene entonces un conjunto de escenarios que corresponde al producto cartesiano de los intervalos de incerteza. Con respecto a los escenarios discretos se tiene un conjunto que corresponde a una lista de escenarios .
  • 20. 23 Otro criterio conocido para el manejo de la robustez a través de MinMax es el llamado MinMax absolut, el cual es un criterio bastante más conservador. MMR también conocido como desviación robusta, busca el escenario donde se obtiene la mejor peor desviación robusta, es decir, donde el máximo regret es mínimo. El término regret viene del inglés y significa arrepentimiento; en el contexto de optimización es encontrar la solución que minimice la brecha de la solución bajo cualquier escenario. Este problema puede ser modelado de la siguiente forma: Donde es el conjunto de soluciones factibles, es el conjunto de escenarios posibles, es la función objetivo y la solución optima bajo un escenario particular . El principal desarrollo de este modelo se ha realizado en el área de la CO. A continuación se definirá la notación utilizada para explicar MMR en problemas combinatoriales. Esta fue extraída desde (Averbakh & Lebedev, 2004). Lo primero es definir un problema combinatorial estándar (COP). = sea un conjunto finito de soluciones factibles y una función definida sobre con la propiedad de que el óptimo valor del problema: , siempre existe. Asumiendo que existe incerteza en la función objetivo, es decir, es miembro de una familia de funciones para algún conjunto de escenarios. Considerando independiente del conjunto de escenarios, se denota el óptimo valor para el siguiente problema. = , se obtiene que este problema para algún escenario se reduce a un problema clásico de COP. Luego, para algún y , la función se denomina regret para bajo el escenario . El regret del peor caso para algún y el respectivo escenario inducido se denotará por la función de que está definida por. Se puede observar que . Luego la versión MMR-COP está dada es: Para un problema MMR-COP se considera un conjunto finito base y el conjunto factible de soluciones. Luego cada elemento toma valores dentro de un intervalo
  • 21. 24 , . A partir de lo anterior se pueden deducir las siguientes definiciones y el teorema 1. Definición 1: Un escenario es obtenido a través de la asignación de un costo . Definición 2: La desviación robusta para una solución factible de un problema combinatorial en un escenario , es la diferencia entre el costo de y el costo de la solución óptima para el escenario . Definición 3: una solución se dice solución robusta relativa (relative robust solution), si este tiene la mínima (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta. El siguiente teorema es la base para todos los estudios de formulación matemática propuestos a la fecha. Teorema 1: (Yaman et al., 2001). Dada una solución y un escenario , la desviación robusta máxima se produce cuando y , donde representa el escenario inducido por la solución . A continuación se presenta un ejemplo del cálculo del regret para una solución . Dado el grafo mostrado de la ilustración 1 a la 4. En primer lugar, en la ilustración 1, se tiene un grafo con datos intervalares, luego, en la ilustración 2 se tiene una solución . En la ilustración 3 se genera el peor escenario de acuerdo al teorema 1 y se calcula el costo de la solución Finalmente, en la ilustración 4, se procede a calcular la solución óptima en el peor escenario y se calcula su costo 7, y el respectivo regret . ILUSTRACIÓN 1. CÁLCULO DEL REGRET PARTE I
  • 22. 25 LUSTRACIÓN 2. CÁLCULO DEL REGRET PARTE II ILUSTRACIÓN 3. CÁLCULO DEL REGRET PARTE III ILUSTRACIÓN 4. CÁLCULO DEL REGRET PARTE IV En (Candia-Véjar et al.,, 2011) se muestra un MIP genérico para MMR-COP con restricciones y función objetivo lineal, basado en el teorema antes mencionado y algunos supuestos que se presentarán a continuación. Una característica que resaltan los autores es que este modelo asocia un número polinomial de restricciones y variable. Una variable binaria es definida diciendo si es una parte de la solución construida. Un vector característico de un conjunto de elementos es un vector binario tal que 1 si y solo si .
  • 23. 26 Ahora se asocia al conjunto de soluciones con el de vectores binarios , éste satisface las siguientes condiciones:  Si es un vector característico de una solución factible , entonces y  Si es un vector característico de un subconjunto además en tanto existe un tal que Luego contiene todos los vectores característicos de todas las soluciones factibles en y éste también puede contener vectores característicos de un subconjunto , tal que, . Sin embargo, en este caso debe contener una solución factible tal que A continuación se asumirá que puede ser descrito como un conjunto de ecuaciones lineales de la siguiente forma: Donde corresponde a un vector de variables auxiliares, que son utilizadas si es necesario, es una matriz y corresponde al vector de costos, primero se asume que la matriz es totalmente unimodular (cada sub matriz cuadrada de tiene determinante 1, 0 ó -1), luego se puede definir la siguiente función: En (Candia-Véjar et al.,, 2011) se muestra que un MMR-COP puede ser expresado de la siguiente forma. Claramente este problema no es lineal, sin embargo considerando la propiedad de total unimodularidad de la matriz es posible transformarlo en un problema lineal con variables binarias, para mayor detalle de esta transformación ver el artículo mencionado. Si bien el problema puede ser expresado como un modelo lineal, su complejidad es una arista de gran importancia, pues problemas que en su versión clásica son fáciles de resolver (en tiempo polinomial), como lo son: MST, SP, asignación, etc., en la versión robusta se transforman en problemas del tipo NP-Hard. Un estudio detallado de la complejidad computacional de los modelos MMR-CO es mostrada en (Kouvelis & Yu, 1997). Varios han sido los trabajos donde se ha estudiado
  • 24. 27 la complejidad del modelo MMR. Una buena referencia se puede encontrar en (Aissi et al., 2005). A continuación se presentan algunos resultados relevantes de dichos trabajos. MMR-P = NP-Hard incluso con redes de dos capas de ancho y con solamente 2 escenarios. MMR-ST = NP-Hard inclusive si . MMR-Knapsack (en versión robusta absoluta): Fuertemente NP-Hard para conjuntos de escenarios no acotado. MMR-Allocation = NP-Hard inclusive si . MMR-Assigment = NP-Hard inclusive si .
  • 25. 28 CAPÍTULO III: MIN-MAX REGRET SPANNING TREE En este capítulo se entrega la principios matemáticos del MMR-ST, además de una extensa revisión de los principales aportes algorítmicos realizados a la fecha.
  • 26. 29 3.1 FORMULACIONES PARA MST Para definir el problema MMR-ST y además conocer las distintas aproximaciones algorítmicas propuestas a la fecha, es necesario conocer algunas formulaciones básicas del problema clásico (MST). Las formulaciones matemáticas para el MST se pueden clasificar en dos grandes grupos. Por un lado se tienen las formulaciones naturales o directas y por el otro las formulaciones derivadas. Con respecto a las formulaciones naturales se mostrarán dos, una basada en un subconjunto de restricciones que previenen circuitos (prevención de subtours) y otra basada en el aseguramiento de la conectividad (cut-set inequalities). Considere la variable binaria (para todo ) que toma valor 1, si el arco está dentro de la solución del MST. Se tiene la siguiente formulación: Restricciones de conectividad La restricción de cardinalidad (2.2) asegura que para cada nodo en el conjunto existe un arco incidente. Para los subconjuntos , se consideran las siguientes definiciones , cuando se tiene que , luego . Para asegurar la conectividad usualmente se utiliza o restricciones de eliminación de subtour, como en la restricción (2.4) o la inclusión de cut-set inequalities como en la restricción (2.5). Es importante mencionar que las cut-set se implementan sobre una versión bidirigida del grafo original, donde cada arista es reemplazada por el arco y cada arista es remplazada con dos arcos y arco , generando el conjunto de arcos , estos arcos heredan el costo o peso de la arista originaria Este tipo de formulación tiene la desventaja de que el número de restricciones de conectividad crece de forma exponencial con el tamaño del problema, pero también se han presentado formulaciones compactas.
  • 27. 30 A continuación se presenta una extensión de formulación de este tipo basada en la formulación del problema de flujo multi-producto. En esta formulación adicionalmente a las variables se utilizarán las variables de decisión (para todo y ), lo cual especifica si el arco es usado en el camino desde el nodo raíz a La formulación del flujo multi-producto se presenta a continuación. , , Las restricciones de conservación del flujo (2.6), (2.7) y (2.8) establecen que la solución debe tener un camino, entre el nodo 0 y el nodo (para todo ), la restricción (2.9) asegura que solo es posible enviar flujo a través del nodo a través del arco si este arco se encuentra dentro de la solución. Estos conjuntos de restricciones permiten asegurar la conectividad de la solución. 3.2 DEFINICIÓN DEL MMR-ST El MMR-ST es definido sobre un grafo , donde es el conjunto de vértices y es el conjunto de aristas. Un intervalo con se asocia a cada arista . Los intervalos representan rangos de pesos posibles, pueden estar asociados a costos, distancias, tiempo, etc. Definición 1: Un escenario es obtenido a través de la asignación de un costo . Definición 2: La desviación robusta para un ST en un escenario , es la diferencia entre el costo de y el costo de la solución optima para el escenario . Definición 3: un ST se dice solución robusta relativa (relative robust solution), si éste tiene las más pequeña (entre todas las soluciones) máxima (entre todos los escenarios) desviación robusta.
  • 28. 31 El siguiente teorema es la base para todos los estudios de formulación matemática propuestos a la fecha. Teorema 1: (Yaman et al., 2001). Dado un ST un escenario , la desviación robusta máxima se produce cuando y , donde representa el escenario inducido por la solución . Con respecto a la complejidad de este problema (Aron & Van Hentenryck, 2004) probaron que es NP-Hard inclusive si el intervalo de incerteza es igual a , polinomial si el número de aristas con intervalo de incerteza es fijo o acotado por el logaritmo de una función polinomial de el número total de aristas. En este mismo trabajo se generaliza el resultado antes mostrado. La clasificación de NP-Hard del MMR-ST fue probada independientemente por (Aissi et al., 2005). En este trabajo también se probó para intervalos de costo y además si el grafo es completo. La primera formulación matemática del modelo MMR-ST fue presentada por (Yaman et al., 2001), en dicho trabajo también presentan técnicas de pre-procesamiento, el modelo se basa en dos formulaciones matemáticas, la primera propuesta por (Magnanti & Wolsey, 1995) es la formulación single commodity model (F1), el segundo modelo utilizado es el problema dirigido de flujo multi- producto (F2) (Yaman et al., 2001) utiliza ambas formulaciones para representar el MMR-ST, para representar las aristas de un ST utiliza F1 y para modelar el arrepentimiento del ST utiliza el dual de F2. Luego la formulación resultante se presenta a continuación. Irrestricta
  • 29. 32 Esta formulación se aplicó a grafos completos con 10, 15, 20 y 25; la técnica de preprocesamiento utilizada consistió en identificar aristas fuertes y débiles (strong y weak), con esto se logró eliminar un porcentaje de éstas, sin embargo los tiempos de ejecución son bastante altos para instancias de pequeño tamaño como los son las de experimentación. Con respecto al preprocesamiento, una arista es llamada strong si pertenece a un MST en algún escenario , donde es el conjunto de escenarios. Una arista es llamada weak si pertenece a un MST para todos los escenario . 3.3 ALGORITMOS EXACTOS Posterior al trabajo de (Yaman et al., 2001), se han propuesto algunas alternativas de resolución exactas; en (Aron & Van Hentenryck, 2004) se muestra un branch and bound (B&B). Este método mejoró el trabajo de (Yaman et al., 2001) permitiendo resolver instancias de un tipo particular con tamaño de hasta 40 nodos. Un nuevo algoritmo B&B fué propuesto en (Montemanni & Gambardella, 2005) el cual consideró las instancias utilizadas por los trabajos previos e incluyó un grupo con metodología de generación distinta. Para ambos grupos de instancias se mejorarón los resultados obtenidos por (Aron & Van Hentenryck, 2004), según los autores este B&B su esquema de ramificación fue más fuerte. Un acercamiento de gran importancia en relación a algoritmos exactos para la resolución del MMR-ST es el realizado por (Montemanni, 2006). En éste se presenta un algoritmo de descomposición de Benders, cuya formulación es similar a la de (Yaman et al., 2001) con la única salvedad de que cambia F1 por una formulación con menos variables pero con más restricciones, basada en cut-set inequalit. Luego la formulación matemática se presenta a continuación (F3). Irrestricta
  • 30. 33 La descomposición de Benders es un método clásico de resolución de problema de gran escala, fue propuesta por primera vez por (Benders, 1962). Para ver detalles de la teoría ver también (Geoffrion, 1972). A grandes rasgos, esta metodología consiste en dividir el problema general en dos, un problema maestro y un subproblema. Los resultados de ambos problemas se alimentan de forma iterativa, luego el problema maestro recibe cortes en cada iteración, los cuales se forman a partir del resultado obtenido por el dual del subproblema. La solución de este problema se obtiene cuando el valor del maestro se hace igual al valor del subproblema, pues estos representan la cota inferior y superior del problema original respectivamente. Aplicaciones de esta metodología han sido muchas y en variadas áreas ver (Richardson, 1976), (Magnanti et al., 1986), (Cordeau et al., 2000). Estudios para mejorar el desempeño del algoritmo se muestran en (McDaniel & Devine, 1977) y (Magnanti & Wong, 1981). En relación al problema en estudio (MMR-ST), el subproblema primal recibe una solución que satisfacen las restricciones (4.13) y (4.14) en la primera iteración. Luego deben corresponder a la solución óptima que satisface las restricciones antes mencionadas más los cortes que se van generando. Éste puede ser presentado de la siguiente forma: Irrestricta Se puede realizar una transformación a la función objetivo y puede ser ajustada a la siguiente expresión, con el objetivo de tener un problema dual de la forma del MST. En tanto el modelo del subproblema primal queda de la siguiente forma:
  • 31. 34 irrestricto Al plantear el dual del subproblema, se obtiene un problema de árbol clásico con un vector de costos modificado, en la formulación flujo multi-bien. Mayor detalle ver en (Magnanti & Wolsey, 1995). Finalmente, el problema maestro puede ser formulado como se muestra a continuación, para mayor detalle ver (Montemanni, 2006). corresponde a una región factible del problema dual, en tanto corresponde a los puntos extremos de esta región, además se introduce una variable para extender la definición del problema maestro. En (Montemanni, 2006) se compara el rendimiento del Benders propuesto, con el algoritmo presentado en (Yaman et al. 2001), que se basó en eficientes técnicas de preprocesamiento del
  • 32. 35 modelo, antes de ser entregado a CPLEX (versión 12.3). El segundo parámetro de comparación es el algorítmo branch and bound propuesto en (Aron & Van Hentenryck, 2002), el tercer y último parámetro de comparación es el algorítmo branch and bound propuesto por (Montemanni & Gambardella, 2005). Los resultados presentados en este trabajo demuestran que el número de iteraciones del algorítmo de descomposición de Benders se incrementa con el número de nodos, como se esperaba, sin embargo su eficiencia decrece a medida que el paramétro difusor (utilizado para generar instancias) aumenta su valor. Con respecto a los algoritmos de comparación, Benders es el que obtiene los mejores resultados. 3.4 HEURÍSTICAS PARA MMR-ST Como se ha mencionado anteriormente, la alta complejidad del problema MMR-ST no permite obtener resultados de instancias de tamaño aun pequeño (40 nodos máximo) en un tiempo razonable. Lo mismo sucede con un grupo no menor de problemas combinatoriales, en mayor (ej. MMR-TSP) o menor grado (ej. MMR-P). Por el motivo antes presentado, han sido diversas las aproximaciones al problema a través de heurísticas, sin duda una de las propuestas heurísticas de mayor impacto para este tipo de problema ha sido la realizada por (Kasperski & Zielinski, 2006), quienes proponen un algoritmo (Hm) con cota de aproximación 2, esto significa que la peor solución obtenida no tendrá un valor mayor al doble del óptimo, con la ventaja de conservar la complejidad del problema clásico. Los algoritmos propuestos por (Kasperski & Zielinski, 2006) se basan en la definición de un escenario particular, luego se usa este escenario para obtener la solución óptima de un problema clásico, que también corresponde a una solución factible de un problema MMR. Dos escenarios han sido propuestos para la aplicación de esta heurística, el escenario del límite superior y el escenario del punto medio En la realidad estas heurísticas son complementarias, es decir, dado su bajo tiempo de ejecución se ejecutan ambas y se selecciona la mejor. Además queda un espacio para probar distintos escenarios dentro del intervalo de costos y seleccionar la solución que genera el menor arrepentimiento. Otra heurística propuesta, en primera instancia para el MMR-TSP en (Mardones, 2010), pero que puede ser fácilmente generalizada a otros problemas de Optimización combinatorial robusta, es , esta se fundamenta en el buen rendimiento de la heurística en experimentaciones previas y en el trabajo realizado por (Montemanni et al., 2007) La idea fundamental de esta heurística es generar un ranking creciente de costo de soluciones en el escenario . A continuación se muestra el pseudocódigo de las heurísticas de 1 escenario y de la .
  • 33. 36 Algoritmo Hm (G,c) Algoritmo Hu (G,c) Input: Grafo G y función de costos c. Output: Una solución factible Y para MMR- ST y su arrepentimiento 1. for all do 2. 3. end for 4. Y OPT( ) 5. Z(Y) computeRegret(Y) 6. Return Y, Z(Y) Input: Grafo G y función de costos c. Output: Una solución factible Y para MMR-ST y su arrepentimiento 1. for all do 2. 3. end for 4. Y OPT( ) 5. Z(Y) computeRegret(Y) 6. Return Y, Z(Y) Algoritmo n-Hu (G,c) Input: Grafo G y función de costos c. Output: La mejor solución factible Y para MMR-ST y su arrepentimiento 1. for all do 2. 3. end for 4. OPT( ) 5. computeRegret( ) 6. Return , Ambas metodologías pueden ser generalizadas para cualquier escenario, el único paso que se debe modificar para esto, es el 2 y se debe reemplazar por . 3.5 METAHEURÍSTICAS PARA MMR-ST Con respecto a los algoritmos metaheurísticos, para el problema MMR-ST las propuestas de este tipo han sido escasas, siendo las de mayor impacto las propuestas por (Nikulin, 2008) donde se mostró un simulated annealing y la propuesta por (Kasperski et al., 2012) donde se propuso una algoritmo tabu search. En SA se utilizaron instancias de 10, 20 y 30 nodos obteniendos resultados razonables, donde en TS se utilizaron 6 conjuntos de instancias y se demostró la superioridad en relación a SA. A continuación se explicarán en detalle ambas aproximaciones metaheurísticas. 3.5.1 SIMULATED ANNEALING Simulated Annealing (SA) en una metaheurístca probabilística, propuesta en (Kirkpatrick, Gellat, & Vecchi, 1983) y en (Kirkpatrick A. , 1984), generalmente SA encuentra soluciones cercanas al óptimo en conjuntos de soluciones factibles extensos. SA al igual que Tabu Search (TS) pertenece al conjunto de heurísticas de búsqueda local, este tipo de algoritmos son una de las alternativas más
  • 34. 37 prominentes para la obtención de soluciones de calidad en POC complejos, este tipo de algoritmos se basa en la exploración de soluciones vecinas, intentando mejorar la solución actual a través de cambios locales, el tipo de cambio local es definido por una estructura de vecindario. El algoritmo de búsqueda local más básico es la mejora iterativa, este algoritmo comienza en una solución inicial y de forma iterativa intenta mejorar la solución actual, hasta que se cumpla un criterio de parada, típicamente un número máximo de iteraciones. A continuación se presenta el pseudocódigo de dicho algoritmo. Algoritmo Mejora iterativa (G,c) Input: Graph G(V, E) Output: Solution S. 1. Compute an initial solution of G 2. 3. while stop criterion = false 4. Find a solution and cost 5. if then 6. 7. end if 8. end while 9. Return , SA se diferencia de este algoritmo de mejora iterativa básico, en primer lugar porque permite salir de óptimos locales a través del criterio de aceptación en base probabilística, es decir, acepta soluciones peores a la actual en la búsqueda, además para su aplicación se debe especificar el espacio de búsqueda, estructura de vecindad, función de probabilidad de aceptación, factor de descenso de temperatura, temperatura inicial, temperatura final y ciclos internos. En la propuesta hecha por (Nikulin, 2008) los principales aportes están en la definición del subespacio de búsqueda y la estructura de vecindad, y a continuación se presenta en detalle. i. Espacio de búsqueda: Un subconjunto del conjunto de aristas puede ser representado por un vector de variables booleanas donde , donde si la arista pertenece al actual subconjunto y en caso contrario. En consecuencia un vector representa el espacio de búsqueda y este es variable en cada iteración. ii. Estructura de vecindad: Sea el actual espacio de búsqueda, se debe escoger aleatoriamente , luego se construye el espacio de búsqueda del vecindario a través de la intervención de . donde si y en caso contrario. La solución inicial utilizada fue .
  • 35. 38 Tanto la estructura de vecindad como el espacio de búsqueda presentados anteriormente presentan restricciones, relacionadas con el pre procesamiento del grafo. Algoritmo Simulated Annealing (G,c) Input: Graph G(V, E) Output: Solution . 1. Compute an initial solution of G 2. , , 3. ComputeRegret( ), 4. while do 5. 6. while do 7. Find a solution and cost 8. ComputeRegret( ) 9. if then 10. 11. if then 12. 13. end if 14. end if 15. else 16. , 17. if then 18. 19. end if 20. end else 21. 22. end while 23. end while 24. Return , 3.5.2 BÚSQUEDA TABÚ La metaheurística Búsqueda Tabú (Tabú Search - TS) fue propuesta en Glover (1986), en este mismo trabajo se introdujo además el término metaheurística, donde la característica principal de TS es el uso de memoria adaptativa. En relación a la memoria adaptativa de TS, ésta hace uso del historial del procedimiento de solución, dando énfasis en 4 aristas fundamentales como lo son: propiedad de ser reciente, frecuencia, calidad e influencia. El pseudocódigo del algoritmo TS se muestra en seguida.
  • 36. 39 Algoritmo Búsqueda Tabú (G,c) Input: Graph G(V, E) Output: Solution . 1. Compute an initial solution of G 2. 3. ComputeRegret( ), 4. while stop criterion = false do 5. the move to is not forbidden or 6. Find a spanning tree of the smallest value of 7. 8. if then 9. , /* A better solution has been found*/ 10. 11. 12. end if 13. if then 14. compute a random spanning tree of 15. if then 16. , /* A better solution has been found*/ 17. end if 18. Go to line 4 /* Restart the algorithm*/ 19. else 20. /* performe the move*/ 21. Update TABU 22. end if 23. end while 24. Return , Posterior a conocer la estructura general del algoritmo, es importante conocer las características principales del algoritmo TS propuesto por (Kasperski et al., 2012) para el MMR-ST, estas se presentan a continuación. i. Lista Tabú: En el algoritmo TS al igual que SA es posible explorar soluciones con , con el objetivo de no permanecer en mínimos locales. Una forma de evitar las oscilaciones alrededor de mínimos locales es almacenar información relacionada con el desempeño de los movimientos, información que es almacenada en la llamada Lista Tabú. Esta lista contiene información acerca de movimientos que son prohibidos por un cierto número de iteraciones. Sea la solución actual, se realiza un movimiento agregando a la arista a y se elimina la arista desde , se obtiene la solución desde Con el fin de evitar volver a estar en , se agrega a la lista dos elementos y . Esto significa que se prohíbe agregar la arista a la actual solución por iteraciones y eliminar la arista por iteraciones.
  • 37. 40 ii. Criterio de aspiración: El criterio de aspiración es una condición que permite realizar un movimiento aunque este esté prohibido, en (Kasperski et al., 2012) se utiliza un criterio donde siempre se permite mover a soluciones mejores . iii. Función de memoria a largo plazo: La lista tabú y el criterio de aspiración son consideradas funciones de memoria a corto plazo de TS. Esto significa que la información almacenada en estas es perdida después de un número pequeño de iteraciones. Con el fin de lograr una diversificación global algunas funciones de memoria a largo plazo pueden ser incorporadas. En (Kasperski et al., 2012) se incorpora un nuevo conjunto de aristas , en la solución inicial y cada vez que se mejora la solución actual se agrega a todo el conjunto de aristas que pertenece a . Después que un número de iteraciones se ha cumplido y la solución actual no mejora, se restaura la solución actual, generando una solución aleatoria del subgrafo . Es importante mencionar que en TS se utilizó una solución inicial aleatoria. Según los autores, después de un proceso de experimentación se llegó al consenso que el esfuerzo computacional para lograr salir de ese óptimo local es mayor al esfuerzo realizado para converger a una solución de calidad como las entregadas por estas heurísticas.
  • 38. 41 CAPÍTULO IV: ALGORITMOS PROPUESTOS PARA MMR-ST En este capítulo se describe la propuesta de investigación de este trabajo, mencionando aportes esperados, metodologías de trabajo y modelos implementados.
  • 39. 42 4.1 APORTE DE LA TESIS Los aportes principales de este trabajo están enfocados en la implementación de nuevos algoritmos para la resolución de problemas robustos bajo el criterio Min-Max Regret, particularmente el problema MMR-ST y evaluar su desempeño con respecto a lo propuesto en la literatura. Adicionalmente, se encuentran mejores soluciones para el conjunto de instancias propuestas en (Kasperski et al, 2012). Como se pudo ver en la revisión bibliográfica, los aportes realizados para resolver este tipo de problemas desde el punto de vista algorítmico no son extensos, en relación a algoritmos exactos sólo se muestran propuestas de algoritmos Branch & Bound y Descomposición de Benders. Con respecto a los algoritmos aproximados lo más destacado es Tabu Search, Simulated Annealing y las heurísticas de un escenario (Hu y Hm). A continuación se presentan los aportes de este trabajo divididos en dos grupos algoritmos exactos y algoritmos aproximados. 4.1.1 ALGORITMO EXACTOS Como se ha comentado anteriormente la descomposición de Benders es el algoritmo exacto que ha entregado los mejores resultados, en tanto es natural proponer alguna variante que pudiese mejorar su desempeño. El aporte específico que se realizará en este aspecto es implementar variantes al algoritmo Benders con la formulación cut set inequality mostrada en la literatura en (Montemanni, 2006), a continuación se presenta el pseucódigo del Benders básico. Descomposición de Benders Básica (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de benders 3. end while 4. Return , Las dos extensiones del algoritmo de Benders están inspiradas en el trabajo realizado por (Pereira & Averbakh, 2011) en el estudio del problema Set Covering robusto. La primera variante está relacionada con el ingreso de más de un corte por iteración, a diferencia del problema de Benders básico. Para esto se utilizan n búsquedas locales (n = número de cortes agregados)
  • 40. 43 donde se realice un k-opt para encontrar soluciones similares y posteriormente se genera el corte por cada solución encontrada. Abajo se muestra el pseudocódigo del algoritmo descomposición de Benders con múltiples cortes. Descomposición de Benders con n cortes k-opt (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de Benders básico 2.4 Encontrar n soluciones similares a través k-opt 2.5 Ingresar cortes de soluciones similares 3. end while 4. Return , La segunda extensión de Benders está relacionada con el uso de las soluciones incumbentes de CPLEX en la resolución del maestro, es decir, en cada iteración se agrega el corte del problema básico y los cortes generados por cada solución incumbente encontrada en el maestro. Descomposición de Benders con cortes incumbentes (G,c) Input: Grafo G y función de costos c. Output: Solución óptima y su arrepentimiento 1. Inicialización 1.1 FOMaestro MIN_INT, FOSubP MAX_INT 1.2 Inicializar Maestro con restricciones no complicantes 1.3 , 2. while (FOMaestro<FOSubP) do 2.1 Resolver Maestro (guardando soluciones incumbentes) 2.2 Resolver dual del problema clásico (MST clásico). 2.3 Agregar corte de Benders básico 2.4 Ingresar cortes de soluciones incumbentes 3. end while 4. Return , Cabe destacar que el maestro de cada variante es resuelto con un algoritmo Branch and Cut, implementando heurísticas primales, las cuales se alimentan de la información de cada nodo del proceso de Branch and Bound. Además, se utilizan los cortes que posee CPLEX por defecto,
  • 41. 44 finalmente las cut-set inequalities son manejadas a través de un algoritmo de flujo máximo de acuerdo a lo mostrado en (Álvarez-Miranda et al., 2012). Con respecto a algoritmos exactos en base a ramificación implementados para MMR-ST sólo se tienen las propuestas de Branch and Bound realizadas en (Aron & Van Hentenryck, 2002) y (Montemanni & Gambardella, 2005), sin embargo, los resultados no fueron alentadores. Por otra parte en (Averbakh & Berman, 2005) y (Pereira & Averbakh, 2011) se proponen algoritmos del tipo Branch and Cut para otros problemas del tipo MMR, basados en Benders cuts. En este trabajo se propone implementar este tipo de algoritmo al problema MMR-ST, considerando una doble separación de las restricciones, específicamnente, se dividen las restricciones topológicas del problema árbol y las restricciones asociadas a la robustez. En relación a la separación de las restricciones de robustez, luego de una pequeña adaptación en la formulación la restricción se puede expresar como se muestra en la restricción . Para este grupo de restricciones se utiliza un conjunto de inicialización que corresponden a las soluciones inducidas por los escenarios del límite inferior ( ), punto medio ( ) y límite superior ( ). Dentro del proceso de ramificación en cada nodo se buscan cortes violados utilizando el valor del conjunto de variable para generar , que es calculado como , el valor de es utilizado como peso de las aristas para aplicar un algoritmo para solución de , para cada solución encontrada se genera el peor escenario (Teorema 1) y para este escenario se encuentra la solución óptima . Las soluciones entregadas por corresponden a la solución actual y soluciones en las cuales se distorsiona el valor de a través de la multiplicación por un número aleatorio entre . Adicionalmente se generan soluciones aleatorias con la generación de escenarios donde cada arista toma un valor entre . Para manejar la topología del problema se manejan dos conjuntos de restricciones iniciales, las in dregree contraint y las restricciones de subtour basic La topología dentro del proceso de ramificación es manejado a través cut-set inequalities que son separadas a través de un algoritmo de flujo máximo como se describe en (Álvarez-Miranda et. al, 2012).
  • 42. 45 El pseudocódigo del algoritmo se muestra a continuación. Algoritmo Branch and Cut con cortes de Benders (G,c) Input: Problema entero con un subconjunto de restricciones. Output: Solución óptima y su arrepentimiento 1. Ingresar cortes iniciales 2. Encontrar solución factible inicial , 3. Resolver la relajación lineal (LP) 4. Hasta aquí se cumple 5. Comenzar el proceso de B&B 6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología 7. En cada nodo del B&B aplicar heurísticas primales 8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima. 9. Return , Una propuesta de mejora para este algoritmo es mejorar la calidad de los cortes de Benders ingresados en el proceso de Branch and Bound (B&B), esta idea se basa en el apareamiento de restricciones, para esto se utiliza un procedimiento propuesto en (Guan et al., 2005). El esquema de apareamiento se basa en un conjunto de vectores no negativos , luego un vector define una restricción válida si: Dadas las dos ecuaciones válidas definidas por los vectores y , la primera definida por domina a la definida por si para todo y , esta situación se denota como . De acuerdo a estudios la estructura de los cortes de Benders, no es posible encontrar dominancia entre diferentes cortes de este tipo, además se descarta que se puedan utilizar las propiedades para restricciones anidadas (nested) y disjuntas (disjoint). Al no contar con los casos de restricciones anidadas y disjuntas, no es posible asegurar la dominancia de la restricción resultante en relación a las restricciones originales, pues existe un número exponencial de secuencias de apareamiento. Sin embargo, de todas formas se implementará un procedimiento de apareamiento, que es mostrado a continuación. Definición: Dados con , se define el pareo de y como,
  • 43. 46 El pseudocódigo implementado para el algoritmo Branch and cut (B&C) con cortes de Benders y apareamiento de restricciones es el siguiente. Algoritmo Branch and Cut con cortes de Benders y apareamiento de cortes (G,c) Input: Problema entero con un subconjunto de restricciones. Output: Solución óptima y su arrepentimiento 1. Ingresar cortes iniciales 2. Encontrar solución factible inicial , 3. Resolver la relajación lineal (LP) 4. Hasta aquí se cumple 5. Comenzar el proceso de B&B 6. En cada nodo del B&B ingresar cortes asociado a la robustez y a la topología, aparear cortes robustos. 7. En cada nodo del B&B aplicar heurísticas primales 8. El proceso termina cuando , cuando esto se cumpla se retorna la solución óptima. 9. Return , 4.1.2 ALGORITMOS APROXIMADOS Como se evidenció en la revisión bibliográfica, los aportes heurísticos se reducen a dos metaheurísticas del tipo búsqueda local (SA y TS) y a las heurísticas de un escenario (hu y hm). En relación a las metaheurísticas en el trabajo de (Kasperski et al., 2012) se menciona el esfuerzo requerido para salir de las soluciones iniciales hu y hm. En este trabajo se propone una metaheurísica con la capacidad demostrada de no caer en óptimos locales como lo es GRASP y una heurística constructiva que utiliza la naturaleza del problema MMR-ST a diferencia de las heurísticas de un escenario, esta puede ser utilizada complementariamente con GRASP o de forma individual. Adicionalmente se implementan dos metaheurísticas de búsqueda más simples, como lo son la mejora iterativa simple y Simulated Annealing. También son implementadas las heurísticas de un escenario (Hu y Hm). La metodología GRASP (Greedy Randomized Adaptive Search Procedures) es una metaheurística para problemas de optimización combinatorial, la cual se fundamenta en la combinación de heurísticas constructivas y de búsqueda local. Consiste básicamente en aplicar k búsquedas locales, donde en cada búsqueda se debe partir desde una solución inicial distinta generada a través de un proceso constructivo con aleatoriedad incorporada. Este metodología fue
  • 44. 47 introducida en los 80' por (Feo & Resende, 1989) y luego se formalizó en (Feo & Resende, 1995), para revisiones detalladas de la literatura ver (Festa & Resende, 2001), (Festa & Resende, 2008) y (Festa & Resende, 2008b). La fase constructiva consiste en generar de forma iterativa una solución factible, añadiendo un elemento en cada paso. Una función greedy determina la elección del elemento que se añadirá a la solución en cada iteración, dicha función mide el beneficio de añadir cada uno de los elementos. Adicionalmente, se dice que el heurístico greedy es adaptativo porque en cada iteración debe actualizar los beneficios de añadir cada elemento a la solución parcial. La heurística es aleatorizada (randomized) porque no, necesariamente, se selecciona el mejor candidato según la función greedy adaptativa, sino que con el objetivo de dar diversidad de soluciones iniciales, se construye una lista con los mejores candidatos seleccionando uno al azar. Luego el pseudocódigo del algoritmo GRASP se presenta a continuación. Algoritmo GRASP (G,c) Input: Grafo G y función de costos c. Output: Una solución factible y su arrepentimiento 1. Fase constructiva 1.1 Generar una lista de candidatos mediante una función greedy 1.2 Considerar una lista restringida de los mejores candidatos 1.3 Seleccionar aleatoriamente un elemento de la lista restringida 2. Fase de mejora 2.1 Hacer un proceso de búsqueda local a partir de la solución construida hasta que no se pueda mejorar más. 3. Actualización 3.1 Si la solución obtenida mejora a la mejor almacenada, actualizarla. Return , En la literatura no existe una heurística para el MMR-ST con las características que requiere GRASP (adaptativa, aleatorizada, greedy y constructiva ), luego en este trabajo se propone una heurística que cumple los requisitos, para poder explicar dicha heurística se deben considerar los siguientes conceptos. La idea inicial consiste en generar un criterio de optimización utilizando los datos intervalares, luego se propone pasar de un grafo con costos (Figura 1) a un grafo con costos (Figura 2).
  • 45. 48 ILUSTRACIÓN 5. GRAFO G CON DATOS INTERVALARES ILUSTRACIÓN 6. GRAFO CON NUEVO CRITERIO DE OPTIMIZACIÓN Definición 1 (Regret local): Se tiene un grafo , donde se asume que falta agregar sólo un nodo a la solución. Luego el aporte al regret (o regret local) de cada arista se puede estimar como la máxima diferencia entre el límite superior de dicha arista con el límite inferior del resto de las aristas que conectan el nodo. El regret local de cada arista se compone de dos aportes (uno por cada nodo perteneciente a la arista), como se muestra en la figura 3.
  • 46. 49 ILUSTRACIÓN 7. COMPOSICIÓN DEL REGRET LOCAL A continuación se muestra el cálculo del regret para la arista . ILUSTRACIÓN 8. CÁLCULO DE REGRET LOCAL PARTE 1 Luego la segunda componente del Regret local se muestra en la figura 4.
  • 47. 50 ILUSTRACIÓN 9. CÁLCULO DEL REGRET LOCAL PARTE II Finalmente el regret local de la arista se calcula de la siguiente forma: Utilizando este criterio se puede generar una matriz con el aporte al regret de cada arista, luego, una alternativa válida consiste en aplicar los algoritmos clásicos para resolver problemas de árbol (PRIM, KRUSKAL, etc.), a esta matriz. En la experimentación se mostrará el desempeño de dicha alternativa. Sin embargo el método mostrado anteriormente no cumple con los requisitos para poder implementar GRASP, luego se genera un método dinámico que cada vez que se agregue un nodo a la solución se actualice la matriz de aporte al regret, esto en base a que las aristas ingresadas ya no deben ser utilizadas para el cálculo de los aportes, es importante mencionar que este algoritmo también puede ser utilizado de forma individual. El pseudocódigo de este algoritmo se presenta a continuación. Heurística constructiva (G,c) Input: Grafo G y función de costos c. Output: Una solución factible y su arrepentimiento 1. Generar matriz R (aporte al regret) 2. Aplicar algoritmo Prim o Kruskal para ingresar la primera arista. 3. Actualizar matriz R 4. Repetir 2 y 3 hasta que todos los nodos estén en la solución. Return ,
  • 48. 51 Matemáticamente la generación de la matriz de Regret locales y la respectiva versión dinámica se realizan siguiendo los pseudocódigos que se presentan a continuación. Generación de Matriz Input: Grafo , costos y matriz Output: Matriz 1. forall (i,j) E 2. 3. 4. 5. 6. 7. end forall 8. return Algoritmo constructivo dinámico Input: Grafo , costos y matriz Output: solution 1. forall (i,j) E 2. 3. 4. 5. 6. 7. end forall 8. select 9. add ( , ) to solution, add and to nodesolution 10. size solution = 1 11. while size 12. forall (i,j) E 13. , 14. , 15. 16. 17. 18. end forall 19. select in 20. add to nodesolution, add ) to solution 21. Size solution = size solution + 1 22. end while 23. return solution
  • 49. 52 Otro aspecto importante de los algoritmos metaheurísticos propuestos es la definición de vecindad. En este trabajo se utilizará la propuesta en (Kasperski et al., 2012), es pseudocódigo de esta se presenta a continuacón. Vecindad Input: Grafo , árbol de expansión de Output: Vecino 1. 2. Seleccionar aleatoriamente (i,j) E 3. Determinar el conjunto de aristas que están sobre el camino de a en 4. Seleccionar 5. Agregar a 6. return Gráficamente la descripción de la vecindad se representa en las siguientes imágenes. ILUSTRACIÓN 10. DEFINICIÓN DE VECINDARIO PARTE I Agregar aleatoriamente una arista . ILUSTRACIÓN 11. DEFINICIÓN DE VECINDARIO PARTE II
  • 50. 53 Encontrar el camino que une los nodos . ILUSTRACIÓN 12. DEFINICIÓN DE VECINDARIO PARTE III Seleccionar aleatoriamente una arista dentro del camino y eliminarla. ILUSTRACIÓN 13. DEFINICIÓN DE VECINDARIO PARTE IV Es importante mencionar que el costo de la nueva solución puede ser calculada de una forma eficiente en función de la solución anterior de la siguiente forma. Donde corresponde a la arista agregada a la nueva solución y corresponde a la arista eliminada.
  • 51. 54 CAPÍTULO V: EXPERIMENTACIÓN Y ANÁLISIS DE RESULTADOS En este capítulo se estudia el desempeño de los diferentes algoritmos implementados, además se describen los diferentes conjuntos de instancias estudiadas.
  • 52. 55 5.1 DESCRIPCIÓN DE INSTANCIAS Para la experimentación se utilizó un subconjunto de las instancias propuestas en (Kasperski et al., 2012), se utilizaron aquellas instancias clasificadas como dificiles (Ya, He0, He1, La y Mo) en el trabajo antes mencionado, a continuación se describirán los cinco conjuntos de instancias utilizadas. Ya( , )- : Grafo completo con nodos. Para cada arista es uniformemente distribuido en y es uniformemente distribuido en el intervalo , esta clase de instancias fue propuesta en (Yaman et al., 2001). Existen dos estructuras de costos dentro de este grupo de instancias (Ya(C,C) y Ya(C,2C)), que por lo demás tienen un impacto en el rendimiento de los algoritmos, especialmente es el caso de los exactos, en la siguiente tabla se presentan las variantes utilizadas en la literatura para este conjutno. TABLA 1. ESTRUCTURA DE COSTOS INSTANCIAS TIPO YAMAN Set 1 Set 2 Set 3 Set 4 Set 5 Set 6 [0,10) [0,15) [0,20) [0,10) [0,15) [0,20) ( , 10] ( , 15] ( , 20] ( , 20] ( , 30] ( , 40] He0-n : Esta clase de instancias fue introducida en (Aron & Van Hentenryck, 2002). Un Grafo representa una red de dos niveles. El nivel inferior consiste de clusters (grafos completos) de 5 nodos cuyas aristas son generadas como en la clase Ya(10,10)- . El nivel superior vincula los clusters y estas aristas tienen costos más altos de acuerdo a Ya(10,10)- desplazado por una constante. En esta clase los grafos son completos y representa el número de nodos en G, que a la vez representa un múltiplo entero de 5, estas instancias son mostradas en (Kasperski et al., 2012) como He1-n. He1-n : Esta clase de instancias también fue introducida en Aron & Van Hentenryck (2002). y son similares a He0-n, con la excepción de que los vínculos del nivel inferior con el nivel superior están organizados como un árbol binario, estas instancias son mostradas por (Kasperski et al., 2012) como He2-n. Mo(p)-n: Grafo completo con nodos. Estos nodos son aleatoriamente localizados sobre una grilla de 50 x 50. Para cada arista es seleccionado aleatoriamente en el intervalo y es generado aleatoriamente en el intervalo , donde es la distancia euclidiana entre y , y es el parámetro de distorsión. Esta clase instancia fue estudiada e introducida en (Montemanni & Gambardella, 2005). La-n : Grafo con nodos, se compone de tres capas. La primera capa está formada por un grafo completo . La segunda capa está compuesta por nodos, cada nodo de esta
  • 53. 56 capa se conecta con dos nodos (elegidos aleatoriamente) de la primera capa. Finalmente la tercera capa, contiene un nodo que es conectado con cada nodo de la segunda capa. Todos los intervalos de costos son . Grafos de este tipo aparecen en (Averbakh & Lebedev, 2004) . En (Kasperski et al., 2012) clasifican este conjunto de instancias como las más complejas del grupo estudiado. Cabe mencionar que cada uno de los grupos de instancias posee 10 instancias generadas bajo el mismo criterio además los tamaños de las instancias que se estudiarán van desde 10 nodos hasta 100 nodos, éstas fueron entregadas directamente por los autores del trabajo (Kasperski et al., 2012) 1 . Todos los algoritmos fueron implementados en C++ utilizando Leda en su versión libre 2 , para los algoritmos exactos se utilizó la versión IBM ILOG CPLEX Optimization Studio V12.3 y la máquina utilizada tiene un procesador Intel Core i7-3610QM con 8 GB de RAM. 5.2 PREPROCESAMIENTO Este análisis consiste en la evaluación del efecto del pre procesamiento, en los diferentes conjuntos de instancias lo cual también se ha analizado en otros trabajos. Para esto se consideran promedios de los conjuntos de instancias. Los indicadores utilizados para el análisis son; tamaño del problema , número de aristas iniciales , promedio de aristas finales , porcentaje promedio de reducción de aristas , promedio de aristas fuertes y porcentaje promedio de aristas fuertes . Un segmento de los resultados del pre procesamiento se presentan en las tablas 2 y 3. Las instancias Mo(0.15) son las que tienen un mayor promedio de aristas fuertes, seguido por Mo(0.5). Los conjuntos de instancias que tienen menor promedio de aristas fuertes son las Ya. Con respecto al tamaño del grafo reducido, el conjunto de instancias donde se obtiene el menor número de aristas son Mo(0.15) y Mo(0.5), transformándose en los conjuntos de instancias más favorecidos con el pre procesamiento, por ejemplo para Mo(0.15)-30 se tiene en promedio un grafo final de 38 aristas (solución con 29 aristas) y además 22 aristas están fijas en la solución (aristas fuertes). Los conjuntos de instancias donde se reduce en menor grado el número de aristas son la Ya, luego este conjunto de instancias es donde el pre procesamiento tiene un menor impacto. Con respecto a las instancias He, se puede decir que se encuentran en una posición intermedia entre Mo(0.15) y las instancias Ya. En el subconjunto He1 el pre procesamiento, específicamente la reducción, tiene un mayor impacto que en He0, en relación al número de aristas fuertes se observa un impacto similar. En las instancias Mo(0.85) el pre procesamiento tiene un 1 http://mariusz.makuchowski.staff.iiar.pwr.wroc.pl/www/research/robust.tree/ 2 http://www.algorithmic-solutions.com/leda/
  • 54. 57 impacto similar (levemente mejor) a las instancias Ya. Es importante mencionar que para el conjunto de instancias La el pre procesamiento no tiene ningún efecto. Al ordenar de mayor a menor impacto del pre procesamiento los conjuntos analizados, se tiene la siguiente lista: Mo(0.15), Mo(0.5), He1, He0, Mo(0.85), Ya y La. Posteriormente en el análisis de los algoritmos estudiados se observará que este orden se relaciona casi perfectamente con el orden en relación a la dificultad del tipo de instancia. TABLA 2. PRE PROCESAMIENTO DE INSTANCIAS HE Y MO N He0-20 20.00 190.00 58.20 69.37% 4.90 2.58% He0-30 30.00 435.00 98.70 77.31% 8.30 1.91% He0-40 40.00 780.00 158.20 79.72% 9.90 1.27% He1-20 20.00 190.00 45.10 76.26% 4.40 2.32% He1-30 30.00 435.00 72.10 83.42% 6.00 1.38% He1-40 40.00 780.00 97.80 87.46% 7.70 0.99% Mo(0.15)-20 20.00 190.00 24.50 87.11% 15.10 7.95% Mo(0.15)-30 30.00 435.00 38.20 91.22% 22.30 5.13% Mo(0.15)-40 40.00 780.00 52.20 93.31% 29.60 3.79% Mo(0.50)-20 20.00 190.00 44.60 76.53% 8.20 4.32% Mo(0.50)-30 30.00 435.00 70.20 83.86% 12.00 2.76% Mo(0.50)-40 40.00 780.00 98.00 87.44% 16.20 2.08% Mo(0.85)-20 20.00 190.00 76.30 59.84% 3.90 2.05% Mo(0.85)-30 30.00 435.00 133.20 69.38% 4.60 1.06% Mo(0.85)-40 40.00 780.00 193.80 75.15% 7.40 0.95% TABLA 3. PRE PROCESAMIENTO DE INSTANCIAS YA N Ya(10-10)-20 20.00 190.00 79.70 58.05% 0.90 0.47% Ya(10-10)-30 30.00 435.00 148.80 65.79% 0.50 0.12% Ya(10-10)-40 40.00 780.00 229.50 70.58% 0.80 0.10% Ya(15-15)-20 20.00 190.00 114.00 40.00% 0.60 0.32% Ya(15-15)-30 30.00 435.00 213.40 50.94% 0.40 0.09% Ya(15-15)-40 40.00 780.00 331.90 57.45% 0.30 0.04% Ya(10-20)-20 20.00 190.00 76.50 59.74% 1.40 0.74% Ya(10-20)-30 30.00 435.00 137.90 68.30% 1.50 0.34% Ya(10-20)-40 40.00 780.00 215.80 72.33% 1.10 0.14% Ya(15-30)-20 20.00 190.00 105.70 44.37% 1.00 0.53% Ya(15-30)-30 30.00 435.00 214.80 50.62% 0.60 0.14% Ya(15-30)-40 40.00 780.00 330.30 57.65% 0.80 0.10%
  • 55. 58 5.3 ALGORITMOS EXACTOS Debido a que se tiene una propuesta amplia de algoritmos exactos, su análisis se realizará de manera parcializada, la primera etapa consiste en evaluar la bondad de las variantes de los algoritmos de descomposición de Benders. Recordando la propuesta algorítmica se tienen tres alternativas, el algoritmo de Descomposición de Benders básico (BBD), la versión con la incorporación de cortes heurísticos (HBD) y la alternativa que incorpora los cortes de las soluciones incumbentes en la resolución del maestro en cada iteración (EBD). La segunda etapa consistirá en evaluar el mejor algoritmo del tipo Benders con el algoritmo B&C y el MILP, finalmente la tercera y última etapa consiste en evaluar el rendimiento del algoritmo B&C para instancias de mayor tamaño. Para las instancias del tipo La, se presenta un análisis separado, donde se compara la eficiencia del B&C y el MILP para instancias de hasta 50 nodos; es importante recordar que este conjunto de instancias es el conjunto que generó mayores problemas a (Kasperski, et al., 2012). 5.3.1 EVALUACIÓN DE VARIANTES DE DESCOMPOSICIÓN DE BENDERS La experimentación se realiza con instancias de 10, 20 y 30 nodos, para las instancias del tipo (He0, He1, Mo(0.15), Mo(0.5), Mo(0.85), Ya(10,10), Ya(10,20), Ya(15,15) y Ya(15,30)), cada una de estas familias de instancias se conforma por 10 instancias generadas bajo las mismas condiciones. Los análisis para cada familia de instancias (He, Ya y Mo) se realizan por separado, debido a las diferencias en los desempeños de los algoritmos para cada familia. En primer lugar se hace un análisis de los tiempos de ejecución para aquellas instancias donde se logra llegar al óptimo dentro del tiempo límite; en este análisis se considera la instancia resuelta en el menor tiempo para cada grupo (min), el promedio de los tiempos de las instancias resueltas dentro del tiempo límite (Av.), la instancia que se resuelve en el tiempo mayor (Max) y por último se muestra el número de instancias que son resueltas dentro del tiempo límite. Se considera un tiempo límite de 3.600 segundos. De la tabla 4 se puede observar que la versión básica del algoritmo de Benders (BBD) es la que presenta el peor desempeño, siendo dominada en todas las dimensiones evaluadas por ambas variantes (EBD y HBD). En relación a las variantes propuestas no existe una dominación por parte de ninguno de los algoritmos. Por ejemplo para las instancias del tipo He1 tanto para 20 como para 30 nodos la versión de Benders con cortes heurísticos (HBD) es la que presenta un mejor desempeño, tanto en los promedio como en el tiempo máximo. Para las instancias del tipo He0 los rendimientos son similares con un pequeño margen de ganancia para la versión de Benders con cortes de soluciones incumbentes (EBD). Para las instancias del tipo Mo (tabla 5), el desempeño de la versión básica del Benders (BBD) es dominado en todas las dimensiones por las variantes propuestas, al igual que para el
  • 56. 59 caso de las instancias He. En relación a las variantes, existe un pequeño margen de dominancia por parte de EBD tanto en los tiempos mínimos como en los promedios. En los tiempos máximos para gran parte de las instancias es mejor, salvo en los grupos de instancias Mo(0.85) para 20 y 30 nodos donde HBD supera a EBD por aproximadamente 100 y 200 segundos respectivamente, cabe destacar que el conjunto de instancias (Mo(0.85)) ya con 30 nodos comienza a mostrar su complejidad. Más adelante se mostrará como uno de los más complejos en estudio. TABLA 4. TIEMPOS DE EJECUCIÓN HE PARA VARIANTES DE BENDERS RESUELTAS AL ÓPTIMO BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N He0-10 0.12 0.45 1.9 10 0.11 0.34 1.33 10 0.06 0.32 1.19 10 He0-20 1.31 63.12 275.39 10 0.64 46.63 214.56 10 1.25 51.22 240.47 10 He0-30 170.31 1445.07 3176.55 6 104.71 1089.13 2403.56 6 121.51 1045.1 2450.07 6 He1-10 0.13 0.45 1.98 10 0.1 0.31 1.32 10 0.08 0.31 1.18 10 He1-20 2.55 56.92 353.47 10 1.46 34.12 220.6 10 1.4 33.11 197.26 10 He1-30 119.92 1064.08 3443.77 7 56.78 811.69 2740.43 7 65.06 706.5 2471.73 7 Las instancias Ya (tabla 6) se pueden subdividir en dos tipos, Ya(C,C) y Ya(C,2C), luego se puede observar que la dificultad de las primeras es significativamente superior para los algoritmos analizados en este momento. En relación al número de instancias resueltas en tiempo límite cabe destacar que EBD es el ganador, en primer lugar en las instancias Ya(15-30)-30 resuelve 6 instancias y los otros algoritmos sólo resuelven 2, además no es dominado en ningún grupo de instancias en esta dimensión. Las instancias del grupo Ya(10,10)-30 son de gran dificultad y ningún algoritmo logra resolver alguna. La versión básica BBD es dominada en el número de instancias resueltas para los grupos Ya(15,15)-20 y Ya(10,20)-20. En general los tiempos de EBD son menores, pero esto se ve acentuado en algunos grupos de instancias (por ejemplo en Ya(15,30)- 20, Ya(10,20)-30 y Ya(10,20)-20). TABLA 5. TIEMPO DE EJECUCIÓN PARA INSTANCIAS MO CON VARIANTES DE BENDERS BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N Mo(0.15)-10 0.02 0.05 0.16 10 0.02 0.03 0.08 10 0.02 0.03 0.05 10 Mo(0.15)-20 0.02 0.13 0.41 10 0.02 0.09 0.22 10 0.02 0.09 0.18 10 Mo(0.15)-30 0.05 1.03 3.53 10 0.03 0.66 2.01 10 0.04 0.72 2.32 10 Mo(0.50)-10 0.03 0.1 0.23 10 0.03 0.09 0.19 10 0.04 0.09 0.23 10 Mo(0.50)-20 0.61 7.57 42.7 10 0.36 5.72 35.24 10 0.49 6.07 36.31 10 Mo(0.50)-30 11.57 144.65 528.34 10 4.73 94.36 357.58 10 7.52 98.53 390.93 10 Mo(0.85)-10 0.03 0.22 0.8 10 0.03 0.16 0.52 10 0.03 0.18 0.71 10 Mo(0.85)-20 2.08 208.28 1803 10 0.84 167.59 1502.53 10 1.94 164.1 1419.39 10 Mo(0.85)-30 67.64 653.65 1924.25 6 48.27 496.09 1672.29 6 62.75 522.81 1484.06 6
  • 57. 60 TABLA 6. TIEMPOS DE EJECUCIÓN PARA INSTANCIAS YA CON VARIANTES DE BENDERS BBD EBD HBD Min Av. Max N Min Av. Max N Min Av. Max N Ya(10-10)-10 0.28 1.9 9.776 10 0.26 1.31 6.19 10 0.18 1.47 7.13 10 Ya(10-10)-20 158.51 770.17 1815.06 3 84.83 472.81 1125.96 3 115.26 547.18 1291.93 3 Ya(15-15)-10 0.08 4.56 26.55 10 0.08 2.94 16.52 10 0.1 3.13 17.31 10 Ya(15-15)-20 169.65 1515.54 3585.49 6 64.15 1203.96 2385.04 7 103.64 1351.43 3363.17 7 Ya(15-15)-30 1439.93 1439.93 1439.93 1 800.37 800.37 800.37 1 1449.05 1449.05 1449.05 1 Ya(10-20)-10 0.29 4.13 12.91 10 0.18 2.76 9.01 10 0.22 3.12 10.99 10 Ya(10-20)-20 41.69 393.2 1244.02 9 17.58 355.57 1847.4 10 22.96 561.59 2575.91 10 Ya(10-20)-30 1326.47 1583.7 1840.93 2 927.16 1052.19 1177.22 2 1275.3 1395.9 1516.5 2 Ya(15-30)-10 0.56 7.87 53.79 10 0.26 5.86 42.44 10 0.41 7.08 51.39 10 Ya(15-30)-20 45.18 205.75 532.51 10 27.56 111.13 316.54 10 40.92 228.23 665.91 10 Ya(15-30)-30 553.92 1005.93 1457.93 2 332.93 1710.65 3089.89 6 488.3 1008.55 1528.8 2 El siguiente análisis es complementario y corresponde a la evaluación de los gaps de aquellas instancias donde no se logró llegar al óptimo, luego en éste se indica el número de instancias que llegaron al óptimo de un total de 10 por grupo, se muestra además el gap relativo entre el UB y LB del algoritmo y finalmente se muestra el gap en relación al mejor de los tres algoritmos. A continuación se presenta el cálculo de ambos gaps. El cálculo de las desviaciones utilizadas está dado por, y , donde corresponde al valor de la mejor solución; puede ser la mejor solución conocida o la mejor en relación a los algoritmos analizados, para este análisis corresponde a la mejor en relación a los tres algoritmos analizados. Para las instancias del tipo He como para las Mo son pocos los grupos donde no se logran resolver todas (2 He y 1 Mo), adicionalmente los gaps entregados son bastante buenos. De la tabla 7 se puede apreciar que para estos grupos de instancias el LB provisto por BBD es de menor calidad, lo cual se fundamenta en el hecho de que el gap de este algoritmo es 0 para los tres grupos de instancias. Luego su UB es similar al de HBD, por lo que su gap* es mayor por tener un LB menor. De la tabla 8 se puede observar que EBD domina a los dos algoritmos restantes en la dimensión gap* en la mayoría de los grupos de instancias, salvo en Ya(15-15)-20. Entonces, esto indica que el LB provisto por este algoritmo es superior al de los dos restantes más aun si se considera que existen grupos donde los otros algoritmos tienen mejor UB (Ya(10-10)-20, Ya(10- 10)-30 y Ya(15-15)-30). En relación al UB medido a través del gap, la versión que obtiene los mejores resultados para la mayor parte de las instancias (salvo Ya(10-10)-20 y Ya(15-15)-20) es EBD.
  • 58. 61 TABLA 7. GAP DE INSTANCIAS HE Y MO PARA VARIANTES DE BENDERS SIN OPTIMALIDAD BBD EBD HBD N GAP* GAP N GAP* GAP N GAP* GAP He0-30 6 2% 0% 6 2% 1% 6 1% 0% He1-30 7 3% 0% 7 2% 0% 7 2% 0% Mo(0.85)-30 6 1% 0% 7 1% 0% 6 1% 0% TABLA 8. GAP PARA INSTANCIAS YA CON VARIANTES DE BENDERS BBD EBD HBD N GAP* GAP N GAP* GAP N GAP* GAP Ya(10-10)-20 3 4% 0% 3 3% 1% 3 3% 0% Ya(10-10)-30 0 22% 1% 0 21% 2% 0 23% 2% Ya(15-15)-20 6 2% 0% 7 2% 1% 7 1% 0% Ya(15-15)-30 1 20% 2% 1 17% 2% 1 20% 3% Ya(10-20)-30 2 14% 3% 3 10% 2% 2 13% 3% Ya(15-30)-30 2 13% 7% 6 6% 1% 2 12% 6% Otro análisis importante puede ser realizado graficando el porcentaje de instancias resueltas en el tiempo; en el Gráfico 1 se presenta una agregación de todas las instancias evaluadas bajo este análisis. Se puede observar que EBD (cruz roja) se encuentra durante todo el intervalo evaluado sobre el resto de los algoritmos (BBD y HBD), adicionalmente se aprecia que es el algoritmo que resuelve en el óptimo el mayor porcentaje de instancias. Por otra parte se observa que la versión básica de Benders se encuentra por debajo de los otros algoritmos en todo el intervalo evaluado. Cabe destacar que este análisis es complementario al de porcentaje acumulado de instancias en función del gap final, es decir, el porcentaje acumulado de instancias para un gap dado. Del gráfico 2 se puede observar, al igual que en el gráfico 1, que el algoritmo EBD es el que presenta un mejor desempeño. Esto se basa principalmente en el hecho que siempre tiene un porcentaje acumulado de instancias mayor para todo gap y además tiene un umbral de gap menor, pues tiene el 100% de las instancias con gap menor o igual a un 45% (última cruz roja). De acuerdo al análisis anterior (tablas y gráficos), considerando la dominancia en los tiempos para la mayor parte de las instancias, la bondad de ambos indicadores de desviación porcentual (gap y gap*) y el análisis gráfico, se puede concluir que de las variantes de Benders la que presenta un mejor desempeño es EBD, por lo que de manera natural será el algoritmo seleccionado para medir su desempeño con B&C y MILP.
  • 59. 62 GRÁFICO 1. PERFIL DE DESEMPEÑO DE LOS TIEMPOS DE RESOLUCIÓN GRÁFICO 2. PORCENTAJE ACUMULADO DE INSTANCIAS PARA UN GAP DADO
  • 60. 63 5.3.2 ANÁLISIS MILP, EBD Y B&C Como se mencionó anteriormente la siguiente etapa consiste en comparar el rendimiento del mejor representante de los algoritmos tipo Benders (EBD), con el MILP y el algoritmo Branch and Cut (B&C). Este análisis considera instancias de tamaño 20, 30 y 40, para los mismos conjuntos de instancias que la etapa 1, esto principalmente debido a que es, en este intervalo, donde todos los algoritmos exactos propuestos en la literatura comienzan a perder efectividad. A continuación se presenta un análisis de tiempos para cada una de las familias de instancias antes mencionadas. Para la familia de instancias del tipo He (tabla 9) se puede hacer un primer análisis en relación al B&C comparado con el EBD, en este contexto se puede observar que EBD es dominado completamente por B&C y esto se ve reflejado en el número de instancias resueltas dentro del tiempo límite (He0-30, He0-40, He1-30 y He1-40). Otro análisis está relacionado al rendimiento del MILP en comparación con el B&C, acá no se observa dominancia, pues para las instancias del He0 B&C logra un desempeño notoriamente superior al MILP, por ejemplo en He0-20 se observa una diferencia significativa en los tiempos promedio, luego para He0 con 30 y 40 nodos el MILP explota y no logra resolver ni siquiera una instancia donde el B&C resuelve las 10 y 7, respectivamente. Para el subconjunto He1 el MILP tiene un rendimiento mejor a B&C obteniendo mejores tiempos y más importante aún, resolviendo una mayor cantidad de instancias en He1-40. Si bien B&C no logra dominar al MILP las ocasiones donde el MILP explota son bastante más drásticas que las oportunidades donde el B&C es superado. TABLA 9. TIEMPOS DE EJECUCIÓN INSTANCIAS HE PARA MILP, EBD Y B&C MILP EBD B&C Min Av. Max N Min Av. Max N Min Av. Max N He0-20 4.41 25.38 142.29 10 0.64 46.63 214.56 10 0.08 1.93 5.68 10 He0-30 - - - 0 104.71 1089.13 2403.56 6 4.98 114.67 578.11 10 He0-40 - - - 0 2220.6 2220.6 2220.6 1 189.28 1759.71 3069.07 7 He1-20 0.3 3.1 8.92 10 1.46 34.12 220.6 10 0.19 1.41 7.07 10 He1-30 4.28 38.88 145.24 10 56.78 811.69 2740.43 7 3.39 306.03 1487.95 10 He1-40 21.81 312.2 1227.26 9 600.24 600.24 600.24 1 46.3 1218.34 2154.09 5 Para las instancias del tipo Mo (tabla 10) se puede observar que existe una dominancia absoluta por parte del B&C tanto en relación al MILP como al EBD, esto se ve reflejado tanto en las dimensiones de tiempo como en el número de instancias resueltas dentro del tiempo límite. Se pueden observar diferencias dramáticas por ejemplo en los tiempos mínimos para los grupos de instancias Mo(0.85)-40, Mo(0.85)-30 y Mo(0.50)-40, caso similar ocurre en los tiempos promedios en las instancias Mo(0.85)-30 y Mo(0.50)-40.