Optimisation bayésienne par méthodes SMC                Romain Benassi           Julien Bect           Emmanuel Vazquez   ...
Introduction Contexte       Optimisation globale ⇒ nombreuses applications dans l’industrie :              Conception d’un...
Introduction Optimisation bayésienne 1/2       Soit                                         f : X ⊆ Rd → R,       avec X c...
Introduction Optimisation bayésienne 2/2       Après n évaluations              information disponible : Fn = (X1 , ξ(X1 )...
Introduction Expected Improvement (EI)       Stratégie optimale sur un horizon d’un pas :                  Xn+1 = argmin E...
Introduction Exemple : itération 1                                        3                                        2      ...
Introduction Exemple : itération 2                                        3                                        2      ...
Introduction Exemple : itération 3                                         3                                         2    ...
Introduction Exemple : itération 4                                          2                                         1.5 ...
Introduction Exemple : itération 5                                          2                                          1  ...
Introduction Exemple : itération 6                                          2                                          1  ...
Introduction1   Introduction2   Approche plug-in3   Approche complètement bayésienne4   Expériences numériques5   Conclusi...
Approche plug-in1   Introduction2   Approche plug-in3   Approche complètement bayésienne4   Expériences numériques5   Conc...
Approche plug-in Problème : Comment choisir ξ ?⇒ processus ξ choisi dans une classe de processus gaussiens paramétréspar θ...
Approche plug-in EI et processus gaussiens       Si ξ est gaussien (θ fixé) :           ρn (x ; θ) = En (ξ (x ) − Mn )+ | θ...
Approche plug-in Problème avec l’approche plug-inFonctions trompeuses    Le terme fonctions trompeuses caractérise une fon...
Approche plug-in Exemple : Fonction trompeuse                        1                      0.5                        0  ...
Approche plug-in Exemple : Fonction trompeuse                         1                       0.5                         ...
Approche plug-in Exemple : Fonction trompeuse                         1                        0.5                        ...
Approche plug-in Exemple : Fonction trompeuse                          1                        0.5                       ...
Approche plug-in Exemple : Fonction trompeuse                           1                         0.5                     ...
Approche plug-in Exemple : Fonction trompeuse                           1                         0.5                     ...
Approche plug-in Exemple : Fonction trompeuse                            1                          0.5                   ...
Approche plug-in Exemple : Fonction trompeuse                            1                          0.5                   ...
Approche plug-in Exemple : Fonction trompeuse                             1                           0.5                 ...
Approche complètement bayésienne1   Introduction2   Approche plug-in3   Approche complètement bayésienne4   Expériences nu...
Approche complètement bayésienne EI complètement bayésien       Utilisation d’un critère EI complètement bayésien (William...
Approche complètement bayésienne Exemple : itération 1                  1                                                 ...
Approche complètement bayésienne Exemple : itération 2              1.5                                                   ...
Approche complètement bayésienne Exemple : itération 3                 1.5                                                ...
Approche complètement bayésienne Exemple : itération 4                 1.5                                                ...
Approche complètement bayésienne Exemple : itération 5                 1.5                                                ...
Approche complètement bayésienne Exemple : itération 6                 1.5                                                ...
Approche complètement bayésienne Exemple : itération 7                 1.5                                                ...
Approche complètement bayésienne Exemple : itération 8                 1.5                                                ...
Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle éval...
Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle éval...
Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle éval...
Approche complètement bayésienne Principe de base de notre algorithme (Benassi et al. 2012)Idée 1 (voir, p. ex., Gramacy e...
Approche complètement bayésienne Description de l’algorithme                                                              ...
Expériences numériques1   Introduction2   Approche plug-in3   Approche complètement bayésienne4   Expériences numériques5 ...
Expériences numériques Choix des a priori       ξ est choisi gaussien avec :              une moyenne constante mais incon...
Expériences numériques La fonction test                  Fonction Branin (optimisation en dimension deux)                 ...
Expériences numériques Simulations : itération 1                Fonction Branin                                           ...
Expériences numériques Simulations : itération 2                Fonction Branin                                           ...
Expériences numériques Simulations : itération 3                Fonction Branin                                           ...
Expériences numériques Simulations : itération 5                Fonction Branin                                           ...
Expériences numériques Simulations : itération 9                Fonction Branin                                           ...
Expériences numériques Simulations : itération 13                Fonction Branin                                          ...
Expériences numériques Simulations : itération 17                Fonction Branin                               répartition...
Expériences numériques Simulations : itération 21                Fonction Branin                               répartition...
Expériences numériques Comparaison 1/2Comparaison entre approche bayésienne et approche plug-inApproche bayésienne    I = ...
Expériences numériques Comparaison 2/2                                                                                   0...
Conclusions1   Introduction2   Approche plug-in3   Approche complètement bayésienne4   Expériences numériques5   Conclusio...
Conclusions ConclusionsResultats    Notre nouvel algorithme complètement bayésien calcule efficacement    le critère EI     ...
Conclusions ReferencesThis talk is based on the following two papers :       Romain Benassi, Julien Bect, Emmanuel Vazquez...
Prochain SlideShare
Chargement dans…5
×

Optimisation bayésienne par méthodes SMC

522 vues

Publié le

Romain Benassi's slides for the 2012 GdR MASCOt6NUM meeting.

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
522
Sur SlideShare
0
Issues des intégrations
0
Intégrations
18
Actions
Partages
0
Téléchargements
6
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Optimisation bayésienne par méthodes SMC

  1. 1. Optimisation bayésienne par méthodes SMC Romain Benassi Julien Bect Emmanuel Vazquez SUPELEC 21 mars 2012 Mascot Num 2012 Bruyères-le-Châtel, FranceBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 1 / 27
  2. 2. Introduction Contexte Optimisation globale ⇒ nombreuses applications dans l’industrie : Conception d’une voilure d’avion (Forrester et al. 2008) Optimisation de la forme des conduits d’admission d’un moteur de voiture (Villemonteix et al. 2007) etc. Fonctions à optimiser coûteuses à évaluer (appel à des programmes informatiques avec des durées d’exécution importantes) Exemples d’optimisation de formes en CFDBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 2 / 27
  3. 3. Introduction Optimisation bayésienne 1/2 Soit f : X ⊆ Rd → R, avec X compact et d ∈ N Objectif : trouver x ∗ = argmaxx ∈X f (x ) et M = f (x ∗ ) f ne peut être évaluée qu’un nombre limité de fois N évaluations non bruitées gradient de f non disponible Choix d’une approche bayésienne pour résoudre le problème ⇒ f est vue comme une réalisation d’un processus aléatoire ξBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 3 / 27
  4. 4. Introduction Optimisation bayésienne 2/2 Après n évaluations information disponible : Fn = (X1 , ξ(X1 ), . . . , Xn , ξ(Xn )) objectif : maximiser MN = ξ(X1 ) ∨ . . . ∨ ξ(XN ) Nouveau point d’évaluation Xn+1 choisi à l’aide d’un critère d’échantillonnage ρn (construit à partir de Fn ) ¯ Xn+1 = argmax ρn (x ), ¯ x ∈X ρn peut être évalué rapidement ¯ Exemples de critères : probabilité d’amélioration (Kushner 1964) amélioration moyenne (Expected Improvement) (Mockus et al. 1978) entropie de l’optimiseur (IAGO) (Villemonteix et al. 2008)Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 4 / 27
  5. 5. Introduction Expected Improvement (EI) Stratégie optimale sur un horizon d’un pas : Xn+1 = argmin En [M − Mn+1 | Xn+1 = x ] x ∈X = argmax En (ξ(Xn+1 ) − Mn )+ | Xn+1 = x , x ∈X Expected Improvement (EI) avec En l’espérance conditionnelle relative à FnBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 5 / 27
  6. 6. Introduction Exemple : itération 1 3 2 1 0 −1 −2 −3 −1 −0.5 0 0.5 1 log10 ρn (x ) −1 −2 −3 −4 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  7. 7. Introduction Exemple : itération 2 3 2 1 0 −1 −2 −3 −1 −0.5 0 0.5 1 log10 ρn (x ) 0 −2 −4 −6 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  8. 8. Introduction Exemple : itération 3 3 2 1 0 −1 −2 −3 −1 −0.5 0 0.5 1 log10 ρn (x ) 0 −20 −40 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  9. 9. Introduction Exemple : itération 4 2 1.5 1 0.5 0 −0.5 −1 −1.5 −2 −2.5 −3 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 log10 ρn (x ) 0 −20 −40 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  10. 10. Introduction Exemple : itération 5 2 1 0 −1 −2 −3 −1 −0.5 0 0.5 1 log10 ρn (x ) 0 −20 −40 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  11. 11. Introduction Exemple : itération 6 2 1 0 −1 −2 −3 −1 −0.5 0 0.5 1 log10 ρn (x ) 0 −20 −40 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27
  12. 12. Introduction1 Introduction2 Approche plug-in3 Approche complètement bayésienne4 Expériences numériques5 ConclusionsBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 7 / 27
  13. 13. Approche plug-in1 Introduction2 Approche plug-in3 Approche complètement bayésienne4 Expériences numériques5 ConclusionsBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 8 / 27
  14. 14. Approche plug-in Problème : Comment choisir ξ ?⇒ processus ξ choisi dans une classe de processus gaussiens paramétréspar θ ∈ Θ (p.ex. processus avec moyenne constante mais inconnue etcovariance exponentielle avec portée inconnue)Approche plug-in θ est estimé par maximum de vraisemblance EI plug-in : ˜ ρn (x ; θ) = En ˜ ξ x ; θ − Mn , + ˜ avec θ estimé par MV Avantage : existence d’une expression analytique de l’EI pour ξ gaussienBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 9 / 27
  15. 15. Approche plug-in EI et processus gaussiens Si ξ est gaussien (θ fixé) : ρn (x ; θ) = En (ξ (x ) − Mn )+ | θ | θ = sn (x ) [uΦ(u) + Φ′ (u)] avec ˆ u = ξn − Mn /sn (x ) ˆ ξn (x ) = En [ξ(x ; θ)] (prédicteur par krigeage) ˆ sn (x ) écart type a posteriori de ξn (x ) − ξ(x ; θ) Φ fonction de répartition de la loi normale centrée réduite Il est facile de calculer ρn !Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 10 / 27
  16. 16. Approche plug-in Problème avec l’approche plug-inFonctions trompeuses Le terme fonctions trompeuses caractérise une fonction pour laquelle un design initial mal choisi peut conduire à une très mauvaise estimation des paramètres du processus par MV L’utilisation d’une approche plug-in conduit parfois à sous-estimer largement l’erreur de prédiction : ⇒ problème pour l’optimisation par EIBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 11 / 27
  17. 17. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  18. 18. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  19. 19. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  20. 20. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  21. 21. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  22. 22. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  23. 23. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  24. 24. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  25. 25. Approche plug-in Exemple : Fonction trompeuse 1 0.5 0 −0.5 −1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27
  26. 26. Approche complètement bayésienne1 Introduction2 Approche plug-in3 Approche complètement bayésienne4 Expériences numériques5 ConclusionsBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 13 / 27
  27. 27. Approche complètement bayésienne EI complètement bayésien Utilisation d’un critère EI complètement bayésien (Williams et al. 2003, Osborne et al. 2009, . . .) ⇒ choix d’un a priori sur θ Critère d’échantillonnage EI complètement bayésien : Xn+1 = argmaxx ∈X ρn := ¯ ρn (x ; θ) dπn (θ) , θ∈Θ où πn est la loi a posteriori de θ, et ρn (x ; θ) := En ((ξ(Xn+1 ) − Mn )+ | Xn+1 = x ; θ), Approche plus robuste qu’une approche plug-in (Benassi et al. 2011)Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 14 / 27
  28. 28. Approche complètement bayésienne Exemple : itération 1 1 1.5 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −2.2 −2.4 −0.2 ¯ −2.6 −0.4 −2.8 −0.6 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  29. 29. Approche complètement bayésienne Exemple : itération 2 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) −2 −0.8 −4 −6 ¯ −1 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  30. 30. Approche complètement bayésienne Exemple : itération 3 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −1.2 −1.4 −10 ¯ −1.6 −20 −1.8 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  31. 31. Approche complètement bayésienne Exemple : itération 4 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −0.5 −20 −40 ¯ −1 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  32. 32. Approche complètement bayésienne Exemple : itération 5 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −0.8 −20 ¯ −1 −40 −1.2 −1.4 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  33. 33. Approche complètement bayésienne Exemple : itération 6 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −1.2 −20 ¯ −1.4 −40 −1.6 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  34. 34. Approche complètement bayésienne Exemple : itération 7 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −1.5 −20 ¯ −40 −2 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  35. 35. Approche complètement bayésienne Exemple : itération 8 1.5 1.5 1 1 0.5 0.5 0 0 −0.5 −0.5 −1 −1 −1.5 −1.5 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1 log ρn (x ) log ρn (x ) 0 −2 −20 ¯ −2.5 −40 −1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27
  36. 36. Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle évaluation Xn+1 = argmaxx ∈X ρn := ¯ ρn (x ; θ) dπn (θ) θ∈ΘQuestions 1 Comment calculer l’intégrale apparaissant dans ρ ? ¯n 2 Comment maximiser ρn ? ¯Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (SequentialMonte Carlo) originaleBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27
  37. 37. Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle évaluation Xn+1 = argmaxx ∈X ρn := ¯ ρn (x ; θ) dπn (θ) θ∈ΘQuestions 1 Comment calculer l’intégrale apparaissant dans ρ ? ¯n 2 Comment maximiser ρn ? ¯Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (SequentialMonte Carlo) originaleBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27
  38. 38. Approche complètement bayésienne Limites de l’approche complètement bayésienneÀ chaque étape, on choisit une nouvelle évaluation Xn+1 = argmaxx ∈X ρn := ¯ ρn (x ; θ) dπn (θ) θ∈ΘQuestions 1 Comment calculer l’intégrale apparaissant dans ρ ? ¯n 2 Comment maximiser ρn ? ¯Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (SequentialMonte Carlo) originaleBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27
  39. 39. Approche complètement bayésienne Principe de base de notre algorithme (Benassi et al. 2012)Idée 1 (voir, p. ex., Gramacy et al. 2011)Un échantillon pondéré Tn = {(θn,i , wn,i ) ∈ Θ × R, 1 ≤ i ≤ I}, distribuéselon πn , est utilisé pour approcher ρn : ¯ I wn,i ρn (x ; θn,i ) →I ρn (x ) ¯ i=1Idée 2À chaque θn,i est associé un (petit) nombre de points candidats{xn,i,j , 1 ≤ j ≤ J} tels que, pour une valeur de i particulière, les xn,i,jsoient « bien réparties » (les zones où ρn est grand)Nous considérons un ensemble pondéré Gn de couples (θ, x )Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 17 / 27
  40. 40. Approche complètement bayésienne Description de l’algorithme InitialisationÀ l’étape n, Tn0 , qn0 Choix de Xn+1 et évaluation de Démarginalisation ξ(Xn+1 ) Gn Les θs sont « déplacés » Tn+1 qn+1 Évaluation Génération des x s à partir d’une loi instrumentale qn Repondération/ Construction Rééchantillonnage/ de qn+1 Déplacement θ xBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 18 / 27
  41. 41. Expériences numériques1 Introduction2 Approche plug-in3 Approche complètement bayésienne4 Expériences numériques5 ConclusionsBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 19 / 27
  42. 42. Expériences numériques Choix des a priori ξ est choisi gaussien avec : une moyenne constante mais inconnue une covariance de Matérn anisotrope de paramètres (σ 2 , ν, ρ1 , ρ2 , . . . , ρd ) Approche complètement bayésienne ⇒ un a priori doit être affecté à tous les paramètres inconnus une loi impropre uniforme sur R est associée à la moyenne la valeur de régularité ν est fixée à 5/2 un a priori de Jeffreys est utilisé pour σ 2 des a priori lognormaux indépendants sont affectés aux portées ρiBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 20 / 27
  43. 43. Expériences numériques La fonction test Fonction Branin (optimisation en dimension deux) 15 −50 10 −100 −150 x2 5 −200 −250 0 −300 −5 0 5 10 x1Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 21 / 27
  44. 44. Expériences numériques Simulations : itération 1 Fonction Branin répartition des θs et des x s 15 x 10 −9 0.5 7 −50 6 0 5 10 −100 −0.5 4 ρ2 −1 3 −150 x2 −1.5 2 1 5 −200 −2 −2 −1.5 −1 −0.5 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 x2 plan d’expérience initial de 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  45. 45. Expériences numériques Simulations : itération 2 Fonction Branin répartition des θs et des x s 15 x 10 −11 0 8 −50 −0.5 6 10 −100 ρ2 −1 4 −150 x2 −1.5 2 −200 −2 5 −2 −1.5 −1 −0.5 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 x2 plan d’expérience initial de 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  46. 46. Expériences numériques Simulations : itération 3 Fonction Branin répartition des θs et des x s 15 x 10 −13 16 0 −50 14 −0.5 12 10 −100 10 ρ2 −1 8 −150 6 x2 −1.5 4 −2 5 −200 2 −2.5 −2 −1.5 −1 −0.5 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 x2 plan d’expérience initial de 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  47. 47. Expériences numériques Simulations : itération 5 Fonction Branin répartition des θs et des x s 15 x 10 −15 2.5 −50 −1 2 10 −100 −1.5 1.5 ρ2 1 −150 x2 −2 0.5 5 −200 −2.5 −2.5 −2 −1.5 −1 −0.5 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 x2 plan d’expérience initial de 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  48. 48. Expériences numériques Simulations : itération 9 Fonction Branin répartition des θs et des x s 15 x 10 −23 7 −50 −0.5 6 5 −100 −1 10 4 ρ2 −1.5 3 −150 x2 2 −2 1 5 −200 −2 −1.5 −1 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 x2 plan d’expérience initial de 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  49. 49. Expériences numériques Simulations : itération 13 Fonction Branin répartition des θs et des x s 15 x 10 −30 2.5 −50 −1 2 10 −100 −1.5 1.5 ρ2 1 −150 x2 −2 0.5 5 −200 −2.5 −2 −1.5 −1 −250 ρ1 0 −300 15 −5 0 5 10 x1 10 plan d’expérience initial de x2 5 4 points nombre de θ : 100 0 −5 0 5 10 x1 100 x pour chaque θBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  50. 50. Expériences numériques Simulations : itération 17 Fonction Branin répartition des θs et des x s −36 x 10 15 −1.5 5 4 −50 −2 3 −100 ρ2 10 −2.5 2 −150 x2 −3 1 5 −200 −2.2 −2 −1.8 −1.6 −1.4 −1.2 ρ1 −250 15 0 −300 −5 0 5 10 x1 10 plan d’expérience initial de x2 4 points 5 nombre de θ : 100 0 100 x pour chaque θ −5 0 x1 5 10Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  51. 51. Expériences numériques Simulations : itération 21 Fonction Branin répartition des θs et des x s −40 x 10 15 −2.2 8 −50 −2.4 6 −100 ρ2 10 −2.6 4 −2.8 −150 x2 2 −3 5 −200 −2.4 −2.2 −2 −1.8 −1.6 ρ1 −250 15 0 −300 −5 0 5 10 x1 10 plan d’expérience initial de x2 4 points 5 nombre de θ : 100 0 100 x pour chaque θ −5 0 x1 5 10Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27
  52. 52. Expériences numériques Comparaison 1/2Comparaison entre approche bayésienne et approche plug-inApproche bayésienne I = 100 valeurs considérées pour les θ J = 100 valeurs de x pour chaque valeur de θ design initial de 4 points (deux fois la dimension)Approche plug-in θ estimé à chaque itération par MV recherche exhaustive sur LHS fixé pour obtenir Xn+1 LHS de taille I × J design initial de 20 points (dix fois la dimension)Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 23 / 27
  53. 53. Expériences numériques Comparaison 2/2 0 EGO log10 (max f − Mn ) 15 EI+SMC −50 −2 10 −100 −4 x2 −150 −200 −6 5 −250 0 20 40 60 0 −300 nombre d’évaluations de la fonction −5 0 5 10 x1 Comparaison de l’erreur moyenne Fonction Branin au maximum (moyenne sur 100 expériences)Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 24 / 27
  54. 54. Conclusions1 Introduction2 Approche plug-in3 Approche complètement bayésienne4 Expériences numériques5 ConclusionsBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 25 / 27
  55. 55. Conclusions ConclusionsResultats Notre nouvel algorithme complètement bayésien calcule efficacement le critère EI Le choix, à chaque nouvelle itération, d’un ensemble (petit mais bien choisi) de points candidats permet une maximisation efficace du critèreTravail en cours Tests en dimensions supérieures (bons résultats pour les dimensions de 1 à 6) Applications à des problèmes d’optimisation dans le domaine de la conception de systèmes électroniquesBenassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 26 / 27
  56. 56. Conclusions ReferencesThis talk is based on the following two papers : Romain Benassi, Julien Bect, Emmanuel Vazquez, Bayesian optimization using sequential Monte Carlo, Learning and Intelligent OptimizatioN (LION 6), Paris, France, Jan 16-20 [clickme] Romain Benassi, Julien Bect, Emmanuel Vazquez, Robust Gaussian Process-Based Global Optimization Using a Fully Bayesian Expected Improvement Criterion, Learning and Intelligent OptimizatioN (LION 6). Selected Papers. , Lecture Notes in Computer Science, vol. 6683. 2011. [clickme]Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 27 / 27

×