SlideShare una empresa de Scribd logo
1 de 11
Descargar para leer sin conexión
Algoritmos Evolutivos en nodos
                               heterogéneos




lunes 26 de noviembre de 2012
Medidas de rendimiento
                 •       Esfuerzo numérico (número de evaluaciones): a veces no es constante (ej: PG). La meta del
                         paralelismo no es reducir el número de evaluaciones, sino el tiempo.

                 •       Tiempo total: se debe usar el wall clock time.

                 •       Ganancia: usar tiempos medios (la E), el algoritmo uniprocesador y monoprocesador deben
                         de ser el mismo y debe ejecutarse hasta encontrar el óptimo. Entonces es justo.

                     •      Sm = E[T1]/E[Tm]

                     •      Ganancia sublineal: Sm<m

                     •      Ganancia lineal sm = 1

                     •      Ganancia superlineal Sm > m


lunes 26 de noviembre de 2012
Medidas de rendimiento (II)
                 •       Ganancia fuerte: paralelo vs. el algoritmo secuencial más rápido que existe (difícil de
                         encontrar)

                 •       Ganancia débil: compara el algoritmo paralelo del investigador con su propia versión
                         secuencial.

                     •       Ganancia con parada de solución (NO ME QUEDA CLARO)

                         •      Versus panmixia: comparar el algoritmo paralelo con la versión canónica secuencial

                         •      Orthodox: comparar el tiempo de ejecución del algoritmo paralelo en un procesador
                                contra el tiempo del mismo algoritmo en m procesadores (mismo código, misma precisión)

                     •       Velocidad con esfuerzo predefinido



lunes 26 de noviembre de 2012
Medidas de rendimiento (III)

                 •      Serial fraction: fm = (1/sm-1/m)/(1-1/m): en un sistema ideal debería
                        ser constante.

                     •      Si se mantiene constante, pero la eficiencia es del 87% es un buen
                            resultado, por ejemplo.

                     •      Si fm aumenta: granularidad demasiado fina

                     •      Si fm disminuye: hay ganancia superlineal


lunes 26 de noviembre de 2012
Métricas paralelas mal utilizadas
                 •      “He comparado a igual número de evaluaciones”: a veces el tiempo de evaluación no es
                        constante (ej. PG). Hay que usar también el tiempo.

                 •      Comparar medias/medianas: decir si son estadísticamente diferentes: kolmogorov(datos)?
                        anova:kruskal-wallis

                 •      Comparar diferentes algoritmos con diferente precisión: ej: distintos tipos de problemas
                        (50 y 100 ciudades)

                 •      Comparar versiones paralelas vs la canónica: GA vs distributed GA. Son DISTINTOS.
                        (Duda: entonces dividir el espacio de búsqueda?)

                 •      Usar un esfuerzo predefinido y comparar resultados: está bien, PERO no se puede ver la
                        eficiencia-> usar tiempo en llegar al óptimo.


lunes 26 de noviembre de 2012
Ejemplos

                 •      Ganancia panmictica vs orthodox: SA vs pSA y pSA1 vs pSAn (no sé
                        cómo se calcula)

                 •      Esfuerzo predefinido: las soluciones son distintas

                 •      Otras métricas: encontrar el óptimo->el número de evaluaciones es
                        distinto: comparativa justa. Si la ganancia (eficiencia) va disminuyendo
                        pero el serial fraction se mantiene entonces se debe a la parte
                        sequencial intrínseca (no una mala implementación)


lunes 26 de noviembre de 2012
Ganancia superlineal en PEAs

                 •      Fuente de implementación: usar múltiples procesadores para las
                        operaciones en una población panmictica

                 •      Fuente numérica: dividir el espacio de búsqueda

                 •      Fuente física: al dividir hay más acceso a cachés y menos a memoria,
                        etc...



lunes 26 de noviembre de 2012
Experimentos

                 •      Steady state (mu+1) que envía cada 32 generaciones.

                 •      Criterio de parada: encontrar el óptimo

                 •      Recursos homogéneos vs. heterogéneos: 8 islas.

                 •      Resultados: p-values 2 a 2

                 •      Clústers heterogéneos se comportan mejor que homogéneos!


lunes 26 de noviembre de 2012
Otro ejemplo


                 •      HydroCM: Asignar metaheurísticas más simples a nodos más lentos
                        siguiendo un esquema de distintas moléculas




lunes 26 de noviembre de 2012
Ideas
                 •       Asignar costes a cada operación en cada máquina (hay mucha diferencia). Hacer experimentos homogéneos y
                         heterogéneos.

                 •       Criterio de parada A: gastar X “monedas”

                     •      Dividir homogéneamente el número de monedas entre las máquinas

                     •      Dividir heterogéneamente el número de monedas entre las máquinas (las lentas reciben menos)

                     •      Banca central

                 •       Criterio de parada B: alcanzar el óptimo, y comparar el tiempo y el número de monedas gastadas (problema: en
                         teoría debería haber correlación entre el tiempo y las monedas)

                 •       ¿Por qué?

                     •      Como base para EAs que se adapten a las máquinas donde se ejecutan (por ejemplo, adaptando las tasas
                            teniendo en cuenta las monedas restantes y el precio de las operaciones)


lunes 26 de noviembre de 2012
Bibliografía

                 •      Alba et al. Heterogeneous Computing and Parallel Genetic
                        Algorithms. Journal of Parallel and Distributed Computing, 62 (2002)

                 •      Alba et al. Evaluation of parallel metaheuristics, PPSN 2006, LNCS
                        4193 (2006)

                 •      Domínguez et al. HydroCM: A Hybrid Parallel Search Model for
                        Heterogeneous Platforms. Hybrid Metaheuristics, SCI 434 (2013)



lunes 26 de noviembre de 2012

Más contenido relacionado

Destacado

Social Business JamCamp Bustour
Social Business JamCamp BustourSocial Business JamCamp Bustour
Social Business JamCamp BustourFrank Hamm
 
3 atelier tv connectee 280911 - my skreen
3   atelier tv connectee 280911 - my skreen3   atelier tv connectee 280911 - my skreen
3 atelier tv connectee 280911 - my skreenAFMM
 
La pologne 1
La pologne 1La pologne 1
La pologne 1pacitina
 
Mobiles Informelles Lernen
Mobiles Informelles LernenMobiles Informelles Lernen
Mobiles Informelles LernenChristian Glahn
 
Hardware De Sistemas_Jessica Pastor y Laura Mateos
Hardware De Sistemas_Jessica Pastor y Laura MateosHardware De Sistemas_Jessica Pastor y Laura Mateos
Hardware De Sistemas_Jessica Pastor y Laura Mateosjespasto
 
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...Oeko-Institut
 
La Boîte à Images - Témoignages
La Boîte à Images - TémoignagesLa Boîte à Images - Témoignages
La Boîte à Images - TémoignagesChristophe Delire
 
Saison 2014 2015
Saison 2014 2015Saison 2014 2015
Saison 2014 2015kosmogonia
 
DER BESTE MP3 YP-S3 VORSCHAU.2
DER BESTE MP3 YP-S3 VORSCHAU.2DER BESTE MP3 YP-S3 VORSCHAU.2
DER BESTE MP3 YP-S3 VORSCHAU.2damai789
 
Informe de gestion del programa jornadas complementarias
Informe de gestion del programa jornadas complementariasInforme de gestion del programa jornadas complementarias
Informe de gestion del programa jornadas complementariasRuben Soler
 
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...M. HECHAM EL KHARRAZ
 
Definiciones Importantes
Definiciones ImportantesDefiniciones Importantes
Definiciones ImportantesGla Dorado
 
Catalogue Jouets - Partie 1
Catalogue Jouets - Partie 1Catalogue Jouets - Partie 1
Catalogue Jouets - Partie 1ceadf
 

Destacado (20)

Delfini
DelfiniDelfini
Delfini
 
Sankoré project presentation TedX Grenoble
 Sankoré project presentation TedX Grenoble Sankoré project presentation TedX Grenoble
Sankoré project presentation TedX Grenoble
 
Geschenk
GeschenkGeschenk
Geschenk
 
Kc1b
Kc1bKc1b
Kc1b
 
Social Business JamCamp Bustour
Social Business JamCamp BustourSocial Business JamCamp Bustour
Social Business JamCamp Bustour
 
3 atelier tv connectee 280911 - my skreen
3   atelier tv connectee 280911 - my skreen3   atelier tv connectee 280911 - my skreen
3 atelier tv connectee 280911 - my skreen
 
La pologne 1
La pologne 1La pologne 1
La pologne 1
 
Mobiles Informelles Lernen
Mobiles Informelles LernenMobiles Informelles Lernen
Mobiles Informelles Lernen
 
Hardware De Sistemas_Jessica Pastor y Laura Mateos
Hardware De Sistemas_Jessica Pastor y Laura MateosHardware De Sistemas_Jessica Pastor y Laura Mateos
Hardware De Sistemas_Jessica Pastor y Laura Mateos
 
Dinomania
DinomaniaDinomania
Dinomania
 
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...
Förderung der Kraft-Wärme-Kopplung - Fortführung und Neu-Akzentuierung. These...
 
Jose Fernando Bautista
Jose Fernando BautistaJose Fernando Bautista
Jose Fernando Bautista
 
Pd Eoct08
Pd Eoct08Pd Eoct08
Pd Eoct08
 
La Boîte à Images - Témoignages
La Boîte à Images - TémoignagesLa Boîte à Images - Témoignages
La Boîte à Images - Témoignages
 
Saison 2014 2015
Saison 2014 2015Saison 2014 2015
Saison 2014 2015
 
DER BESTE MP3 YP-S3 VORSCHAU.2
DER BESTE MP3 YP-S3 VORSCHAU.2DER BESTE MP3 YP-S3 VORSCHAU.2
DER BESTE MP3 YP-S3 VORSCHAU.2
 
Informe de gestion del programa jornadas complementarias
Informe de gestion del programa jornadas complementariasInforme de gestion del programa jornadas complementarias
Informe de gestion del programa jornadas complementarias
 
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...
Desarrollo de una metodologia para la obtencion de imagenes de inercia termic...
 
Definiciones Importantes
Definiciones ImportantesDefiniciones Importantes
Definiciones Importantes
 
Catalogue Jouets - Partie 1
Catalogue Jouets - Partie 1Catalogue Jouets - Partie 1
Catalogue Jouets - Partie 1
 

Similar a Algoritmos Evolutivos en Nodos Heterogéneos

Analisis y-diseño-de-algoritmos
Analisis y-diseño-de-algoritmosAnalisis y-diseño-de-algoritmos
Analisis y-diseño-de-algoritmosYared Redman
 
Clasificacion de los problemas
Clasificacion de los problemasClasificacion de los problemas
Clasificacion de los problemasJohnfornerod
 
09_Diseno_Experimento.ppt
09_Diseno_Experimento.ppt09_Diseno_Experimento.ppt
09_Diseno_Experimento.pptsalmadelarosa1
 
[Bachelor_project] Asignación de exámenes finales
[Bachelor_project] Asignación de exámenes finales[Bachelor_project] Asignación de exámenes finales
[Bachelor_project] Asignación de exámenes finalesUniversidad de los Andes
 
Analisis y diseño de algoritmo
Analisis y diseño de algoritmoAnalisis y diseño de algoritmo
Analisis y diseño de algoritmoJose Lluberes
 
Curso Big Data. Introducción a Deep Learning by Gabriel Valverde Castilla
Curso Big Data. Introducción a  Deep Learning by Gabriel Valverde CastillaCurso Big Data. Introducción a  Deep Learning by Gabriel Valverde Castilla
Curso Big Data. Introducción a Deep Learning by Gabriel Valverde CastillaVictoria López
 
Clasificacion de los problemas
Clasificacion de los problemasClasificacion de los problemas
Clasificacion de los problemasSergio Ormeño
 
Investigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxInvestigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxcarlosPEREZMENDEZ2
 
Investigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxInvestigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxcarlosPEREZMENDEZ2
 
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltran
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltranPresentacion recocido simulado javier arango rosero y edwin shtid leon beltran
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltranJavier Arango
 

Similar a Algoritmos Evolutivos en Nodos Heterogéneos (16)

Analisis y-diseño-de-algoritmos
Analisis y-diseño-de-algoritmosAnalisis y-diseño-de-algoritmos
Analisis y-diseño-de-algoritmos
 
Introducción a la Computacion paralela
Introducción a la Computacion paralelaIntroducción a la Computacion paralela
Introducción a la Computacion paralela
 
Paralela3
Paralela3Paralela3
Paralela3
 
Computacion paralela
Computacion paralelaComputacion paralela
Computacion paralela
 
Clasificacion de los problemas
Clasificacion de los problemasClasificacion de los problemas
Clasificacion de los problemas
 
09_Diseno_Experimento.ppt
09_Diseno_Experimento.ppt09_Diseno_Experimento.ppt
09_Diseno_Experimento.ppt
 
[Bachelor_project] Asignación de exámenes finales
[Bachelor_project] Asignación de exámenes finales[Bachelor_project] Asignación de exámenes finales
[Bachelor_project] Asignación de exámenes finales
 
Paralela2
Paralela2Paralela2
Paralela2
 
Analisis y diseño de algoritmo
Analisis y diseño de algoritmoAnalisis y diseño de algoritmo
Analisis y diseño de algoritmo
 
Optimizacion en IMRT
Optimizacion en IMRTOptimizacion en IMRT
Optimizacion en IMRT
 
Curso Big Data. Introducción a Deep Learning by Gabriel Valverde Castilla
Curso Big Data. Introducción a  Deep Learning by Gabriel Valverde CastillaCurso Big Data. Introducción a  Deep Learning by Gabriel Valverde Castilla
Curso Big Data. Introducción a Deep Learning by Gabriel Valverde Castilla
 
Clasificacion de los problemas
Clasificacion de los problemasClasificacion de los problemas
Clasificacion de los problemas
 
Inv de operaciones
Inv de operacionesInv de operaciones
Inv de operaciones
 
Investigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxInvestigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptx
 
Investigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptxInvestigación_Operaciones_Clase_01.pptx
Investigación_Operaciones_Clase_01.pptx
 
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltran
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltranPresentacion recocido simulado javier arango rosero y edwin shtid leon beltran
Presentacion recocido simulado javier arango rosero y edwin shtid leon beltran
 

Algoritmos Evolutivos en Nodos Heterogéneos

  • 1. Algoritmos Evolutivos en nodos heterogéneos lunes 26 de noviembre de 2012
  • 2. Medidas de rendimiento • Esfuerzo numérico (número de evaluaciones): a veces no es constante (ej: PG). La meta del paralelismo no es reducir el número de evaluaciones, sino el tiempo. • Tiempo total: se debe usar el wall clock time. • Ganancia: usar tiempos medios (la E), el algoritmo uniprocesador y monoprocesador deben de ser el mismo y debe ejecutarse hasta encontrar el óptimo. Entonces es justo. • Sm = E[T1]/E[Tm] • Ganancia sublineal: Sm<m • Ganancia lineal sm = 1 • Ganancia superlineal Sm > m lunes 26 de noviembre de 2012
  • 3. Medidas de rendimiento (II) • Ganancia fuerte: paralelo vs. el algoritmo secuencial más rápido que existe (difícil de encontrar) • Ganancia débil: compara el algoritmo paralelo del investigador con su propia versión secuencial. • Ganancia con parada de solución (NO ME QUEDA CLARO) • Versus panmixia: comparar el algoritmo paralelo con la versión canónica secuencial • Orthodox: comparar el tiempo de ejecución del algoritmo paralelo en un procesador contra el tiempo del mismo algoritmo en m procesadores (mismo código, misma precisión) • Velocidad con esfuerzo predefinido lunes 26 de noviembre de 2012
  • 4. Medidas de rendimiento (III) • Serial fraction: fm = (1/sm-1/m)/(1-1/m): en un sistema ideal debería ser constante. • Si se mantiene constante, pero la eficiencia es del 87% es un buen resultado, por ejemplo. • Si fm aumenta: granularidad demasiado fina • Si fm disminuye: hay ganancia superlineal lunes 26 de noviembre de 2012
  • 5. Métricas paralelas mal utilizadas • “He comparado a igual número de evaluaciones”: a veces el tiempo de evaluación no es constante (ej. PG). Hay que usar también el tiempo. • Comparar medias/medianas: decir si son estadísticamente diferentes: kolmogorov(datos)? anova:kruskal-wallis • Comparar diferentes algoritmos con diferente precisión: ej: distintos tipos de problemas (50 y 100 ciudades) • Comparar versiones paralelas vs la canónica: GA vs distributed GA. Son DISTINTOS. (Duda: entonces dividir el espacio de búsqueda?) • Usar un esfuerzo predefinido y comparar resultados: está bien, PERO no se puede ver la eficiencia-> usar tiempo en llegar al óptimo. lunes 26 de noviembre de 2012
  • 6. Ejemplos • Ganancia panmictica vs orthodox: SA vs pSA y pSA1 vs pSAn (no sé cómo se calcula) • Esfuerzo predefinido: las soluciones son distintas • Otras métricas: encontrar el óptimo->el número de evaluaciones es distinto: comparativa justa. Si la ganancia (eficiencia) va disminuyendo pero el serial fraction se mantiene entonces se debe a la parte sequencial intrínseca (no una mala implementación) lunes 26 de noviembre de 2012
  • 7. Ganancia superlineal en PEAs • Fuente de implementación: usar múltiples procesadores para las operaciones en una población panmictica • Fuente numérica: dividir el espacio de búsqueda • Fuente física: al dividir hay más acceso a cachés y menos a memoria, etc... lunes 26 de noviembre de 2012
  • 8. Experimentos • Steady state (mu+1) que envía cada 32 generaciones. • Criterio de parada: encontrar el óptimo • Recursos homogéneos vs. heterogéneos: 8 islas. • Resultados: p-values 2 a 2 • Clústers heterogéneos se comportan mejor que homogéneos! lunes 26 de noviembre de 2012
  • 9. Otro ejemplo • HydroCM: Asignar metaheurísticas más simples a nodos más lentos siguiendo un esquema de distintas moléculas lunes 26 de noviembre de 2012
  • 10. Ideas • Asignar costes a cada operación en cada máquina (hay mucha diferencia). Hacer experimentos homogéneos y heterogéneos. • Criterio de parada A: gastar X “monedas” • Dividir homogéneamente el número de monedas entre las máquinas • Dividir heterogéneamente el número de monedas entre las máquinas (las lentas reciben menos) • Banca central • Criterio de parada B: alcanzar el óptimo, y comparar el tiempo y el número de monedas gastadas (problema: en teoría debería haber correlación entre el tiempo y las monedas) • ¿Por qué? • Como base para EAs que se adapten a las máquinas donde se ejecutan (por ejemplo, adaptando las tasas teniendo en cuenta las monedas restantes y el precio de las operaciones) lunes 26 de noviembre de 2012
  • 11. Bibliografía • Alba et al. Heterogeneous Computing and Parallel Genetic Algorithms. Journal of Parallel and Distributed Computing, 62 (2002) • Alba et al. Evaluation of parallel metaheuristics, PPSN 2006, LNCS 4193 (2006) • Domínguez et al. HydroCM: A Hybrid Parallel Search Model for Heterogeneous Platforms. Hybrid Metaheuristics, SCI 434 (2013) lunes 26 de noviembre de 2012