Planification et analyse d’expériences numériques :
approche bayésienne
(introduction, orientée vers la planification séquen...
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayés...
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à conc...
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à conc...
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à conc...
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte no...
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte no...
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte no...
Exemple 1 : optimisation de forme (Renault)

Contexte : CAO
calculs de CFD 3D
thèse de J. Villemonteix (2008)
encadrement ...
Exemple 2 : projet BEMUSE (CEA, IRSN, . . . )
Contexte : sûreté nucléaire
calculs thermo-hydrauliques
réalisés avec le log...
Exemple 3 : étude d’un risque de crue (EDF R&D)
Scenario

Contexte : sûreté des installations

étude du risque de crue

ca...
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globa...
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globa...
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globa...
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globa...
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteu...
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteu...
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteu...
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayés...
Optimisation globale
On considère un problème d’optimisation globale
fonction ξ a priori multimodale
quelle planification (...
Compromis exploration/exploitation
Deux stratégies « extrêmes »

1

0.9

remplir au mieux le domaine X

0.8

0.7

essayer ...
Compromis exploration/exploitation
Deux stratégies « extrêmes »

1

0.9

remplir au mieux le domaine X

0.8

0.7

essayer ...
Utilisation d’un méta-modèle
Méta-modèle ?
modèle simplifié de ξ, plus rapide à évaluer
exemples : krigeage, RBF, réseau de...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4

2

1.5

1

ξ(x)...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4

2

1.5

1

ξ(x)...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=5

2

1.5

1

ξ(x)

0.5

...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=6

2

1.5

1

ξ(x)

0.5

...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=7

2

1.5

1

ξ(x)

0.5

...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=8

2

1.5

1

ξ(x)

0.5

...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=9

2

1.5

1

ξ(x)

0.5

...
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 10

2

1.5

1

ξ(x)

0....
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 11

2

1.5

1

ξ(x)

0....
Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans...
Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans...
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dér...
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dér...
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dér...
Illustration
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
4

3

2

ξ(x)

1

0

−1

−2

−3
...
Illustration
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

1.5

1

ξ(x)

0.5

0

−0.5

−...
Comment choisir xn+1 connaissant I0 , ξn ?
1

En utilisant la loi a posteriori, on construit un critère d’échantillonnage
...
Comment choisir xn+1 connaissant I0 , ξn ?
1

En utilisant la loi a posteriori, on construit un critère d’échantillonnage
...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
n...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2...
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayés...
Bayesian Subset Simulation

Voir présentation PSAM11-ESREL 2012
http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012
...
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayés...
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux su...
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux su...
Références : quelques thèses soutenues à Supélec
thèse de Romain BENASSI (2013)
optimisation bayésienne
encadrement : J. B...
Prochain SlideShare
Chargement dans…5
×

Planification et analyse d'expériences numériques: approche bayésienne

614 vues

Publié le

Publié dans : Technologie
0 commentaire
1 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
614
Sur SlideShare
0
Issues des intégrations
0
Intégrations
2
Actions
Partages
0
Téléchargements
16
Commentaires
0
J’aime
1
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Planification et analyse d'expériences numériques: approche bayésienne

  1. 1. Planification et analyse d’expériences numériques : approche bayésienne (introduction, orientée vers la planification séquentielle) Julien Bect SUPELEC — GdR MASCOT-NUM — IRT SystemX Séminaire ONERA/DSNA 28 novembre 2013 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  2. 2. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  3. 3. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  4. 4. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), ... ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  5. 5. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), ... Qu’entendons-nous par « expérience numérique » ? ξ(x) ∈ Rp Julien Bect (SUPELEC) une expérience ≡ évaluer une réponse ξ(x) du code chaque expérience coûte (souvent, du temps !) budget d’expériences limité Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  6. 6. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  7. 7. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1 , x2 , . . . ) analyser les résultats et quantifier les incertitudes ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  8. 8. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1 , x2 , . . . ) analyser les résultats et quantifier les incertitudes Planification séquentielle ξ(x) ∈ Rp Julien Bect (SUPELEC) planifier chaque calcul en fonction des précédents couplage planification / analyse Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  9. 9. Exemple 1 : optimisation de forme (Renault) Contexte : CAO calculs de CFD 3D thèse de J. Villemonteix (2008) encadrement : E. Vazquez, M. Sidorkiewicz et E. Walter Objectif(s) optimiser la forme du conduit d’admission maximiser les performances du moteur minimiser les émissions de polluant Caractéristiques ≈ 1 h / calcul 6 paramètres de forme à ajuster Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  10. 10. Exemple 2 : projet BEMUSE (CEA, IRSN, . . . ) Contexte : sûreté nucléaire calculs thermo-hydrauliques réalisés avec le logiciel CATHARE benchmark international (de Crécy et al., NED, 2008) Scenario perte de réfrigérant due à une brèche grandeur d’intérêt : température max. Caractéristiques ≈ 10 minutes / calcul 53 paramètres incertains Principaux objectifs estimation d’un quantile de Tmax analyse de sensibilité Julien Bect (SUPELEC) Computer experiments (B. Iooss, J. Nat. Fiabilité, 2010) Séminaire ONERA/DSNA 28 novembre 2 / 24
  11. 11. Exemple 3 : étude d’un risque de crue (EDF R&D) Scenario Contexte : sûreté des installations étude du risque de crue calculs d’hydraulique équ. de Saint Venant 1D ou 2D facteurs : débit, coeff. de Strickler réponse : hauteur d’eau H logiciels MASCARET (1D) OpenTELEMAC (2D) http://www.opentelemac.org projet ANR OPUS Principaux objectifs propagation d’incertitudes estimation d’un quantile sur H analyse de sensibilité (M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010) Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  12. 12. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  13. 13. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  14. 14. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X ) > ξcrit ) estimer un quantile caractériser la loi de Y = ξ(X ) réaliser une analyse de sensibilité ... Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  15. 15. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X ) > ξcrit ) estimer un quantile caractériser la loi de Y = ξ(X ) réaliser une analyse de sensibilité ... En pratique : bien souvent, un mélange de tous ces objectifs ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  16. 16. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  17. 17. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  18. 18. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Disponibilité du gradient ? souvent, pas de gradient disponible exception : code adjoint Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  19. 19. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  20. 20. Optimisation globale On considère un problème d’optimisation globale fonction ξ a priori multimodale quelle planification (séquentielle) d’expériences utiliser ? 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 Julien Bect (SUPELEC) 0 0.1 0.2 0.3 0.4 0.5 x 0.6 0.7 Computer experiments 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  21. 21. Compromis exploration/exploitation Deux stratégies « extrêmes » 1 0.9 remplir au mieux le domaine X 0.8 0.7 essayer d’aller droit au but 0.5 0.4 0.3 0.2 0.1 choisir un bon x1 ∈ X (connaissance a priori) optimiser localement, par ex. Nelder-Mead Julien Bect (SUPELEC) 0.6 yy ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N 2N échantillonages LHS, maximin, . . . (si d ≥ 2) Computer experiments 0 0 0.1 0.2 0.3 0.4 0.5 xx 0.6 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  22. 22. Compromis exploration/exploitation Deux stratégies « extrêmes » 1 0.9 remplir au mieux le domaine X 0.8 0.7 essayer d’aller droit au but 0.6 yy ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N 2N échantillonages LHS, maximin, . . . (si d ≥ 2) 0.5 0.4 0.3 0.2 0.1 choisir un bon x1 ∈ X (connaissance a priori) optimiser localement, par ex. Nelder-Mead 0 0 0.1 0.2 0.3 0.4 0.5 xx 0.6 0.7 0.8 0.9 1 Principe fondamental bien optimiser globalement ⇒ chercher un compromis entre exploration et exploitation Explorer tout le domaine, oui, mais pas uniformément ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  23. 23. Utilisation d’un méta-modèle Méta-modèle ? modèle simplifié de ξ, plus rapide à évaluer exemples : krigeage, RBF, réseau de neurones. . . cas d’observations sans bruit − interpolation → Approche générale (planification séquentielle) 1 2 init : remplir X avec n0 < N points pour n = n0 + 1 : N , ajuster un méta-modèle aux données x1 , ξ(x1 ), . . . , xn−1 , ξ(xn−1 ) utiliser ce méta-modèle pour choisir xn 3 ˆ renvoyer x ∗ = argmax ξ(xn ), ξ ∗ = ξ (ˆ∗ ) ˆ x Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  24. 24. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  25. 25. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  26. 26. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=5 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  27. 27. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=6 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  28. 28. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=7 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  29. 29. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=8 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  30. 30. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=9 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  31. 31. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = 10 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  32. 32. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = 11 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 x Convergence vers un maximum local ! Julien Bect (SUPELEC) Computer experiments 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  33. 33. Principes de l’optimisation bayésienne Constat essentiel Il n’existe pas de « bon » algorithme d’optimisation globale dans l’absolu : on doit préciser à quel type de fonctions on s’intéresse ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  34. 34. Principes de l’optimisation bayésienne Constat essentiel Il n’existe pas de « bon » algorithme d’optimisation globale dans l’absolu : on doit préciser à quel type de fonctions on s’intéresse ! Thomas Bayes (1702–1761) Solution bayésienne Nécessité de quantifier l’incertitude pour faire des choix rationnels. La théorie bayésienne de la décision fournit un cadre cohérent → représentation probabiliste de l’incertitude. Harold Kushner Repères biblio de base : H. Kushner (1964) : P-algorithme J. Mockus et al. (1978) : critère EI D. Jones et al. (1998) : algorithme EGO Julien Bect (SUPELEC) Computer experiments Jonas Mockus Séminaire ONERA/DSNA 28 novembre 2 / 24
  35. 35. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  36. 36. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn )) loi a posteriori Pn = P (ξ ∈ · | I0 , ξn ) Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  37. 37. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn )) loi a posteriori Pn = P (ξ ∈ · | I0 , ξn ) Remarque importante ˆ ξn (x) = E (ξ(x) | I0 , ξn ) est un méta-modèle naturel dans ce cadre. . . . . . mais Pn contient beaucoup plus d’information ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  38. 38. Illustration Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 4 3 2 ξ(x) 1 0 −1 −2 −3 −4 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 x Simulations sous la loi a priori P0 Computer experiments 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  39. 39. Illustration Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 x Moyenne et variance a posteriori Pn0 Computer experiments 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  40. 40. Comment choisir xn+1 connaissant I0 , ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0 , ξn ) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax Jn (x; I0 , ξn ) x∈X Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  41. 41. Comment choisir xn+1 connaissant I0 , ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0 , ξn ) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax Jn (x; I0 , ξn ) x∈X Un critère très utilisé : expected improvement (EI) Jn (x; I0 , ξn ) = E ((ξ(x) − Mn )+ | I0 , ξn ) avec Mn = max (ξ(x1 ), . . . , ξ(xn )). Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  42. 42. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  43. 43. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.25 0.2 EI 0.15 0.1 0.05 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  44. 44. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.12 0.1 EI 0.08 0.06 0.04 0.02 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  45. 45. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.05 0.04 EI 0.03 0.02 0.01 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  46. 46. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.04 EI 0.03 0.02 0.01 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  47. 47. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.035 0.03 0.025 EI 0.02 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  48. 48. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.025 0.02 EI 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  49. 49. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 6 x 10 5 EI 4 3 2 1 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  50. 50. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 6 x 10 5 EI 4 3 2 1 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  51. 51. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 2 x 10 EI 1.5 1 0.5 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  52. 52. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 1.5 x 10 EI 1 0.5 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  53. 53. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 1 x 10 0.8 EI 0.6 0.4 0.2 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  54. 54. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.025 0.02 EI 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  55. 55. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.2 EI 0.15 0.1 0.05 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  56. 56. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.03 0.025 EI 0.02 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  57. 57. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 7 x 10 6 5 EI 4 3 2 1 0 0 x On finit (presque) toujours par explorer les zones « vides » ! cf. théorème(s) de convergence, Vazquez et Bect, 2010 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  58. 58. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  59. 59. Bayesian Subset Simulation Voir présentation PSAM11-ESREL 2012 http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  60. 60. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  61. 61. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . critères adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  62. 62. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . critères adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Une communauté de recherche active en France : le GdR MASCOT-NUM Méthodes d’Analyse Stochastique pour les COdeset Traitements Numériques http://www.gdr-mascotnum.fr conférence annuelle : à Zurich en 2014 international : MUCM Managing Uncertainty in Computer Models http://www.mucm.ac.uk Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  63. 63. Références : quelques thèses soutenues à Supélec thèse de Romain BENASSI (2013) optimisation bayésienne encadrement : J. Bect et E. Vazquez (Dir.) financement : bourse MESR thèse de Ling LI (2012) estimation de probabilités d’événements rares encadrement : J. Bect et E. Vazquez financement : projet CSDL (pôle Systematic) thèse de Julien VILLEMONTEIX (2008) optimisation bayésienne encadrement : E. Vazquez, M. Sidorkiewicz et É. Walter (Dir) financement : CIFRE Renault thèse de Miguel PIERA-MARTINEZ (2008) estimation de probabilités d’événements rares encadrement : E. Vazquez et É. Walter (Dir) financement : fondation EADS Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24

×