Planification et analyse d'expériences numériques: approche bayésienne
1. Planification et analyse d’expériences numériques :
approche bayésienne
(introduction, orientée vers la planification séquentielle)
Julien Bect
SUPELEC — GdR MASCOT-NUM — IRT SystemX
Séminaire ONERA/DSNA
28 novembre 2013
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
2. 1
Introduction : exploration de modèles numériques coûteux
2
Optimisation globale : des méta-modèles à l’approche bayésienne
3
Bayesian Subset Simulation : un autre exemple de planification séquentielle
4
Conclusion
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
3. « Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
4. « Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...
x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
...
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
5. « Expériences numériques » (computer experiments) 1/2
x ∈ X ⊂ Rd
Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...
x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
...
Qu’entendons-nous par « expérience numérique » ?
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
une expérience ≡ évaluer une réponse ξ(x) du code
chaque expérience coûte (souvent, du temps !)
budget d’expériences limité
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
6. « Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
7. « Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .
Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1 , x2 , . . . )
analyser les résultats et quantifier les incertitudes
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
8. « Expériences numériques » (computer experiments) 2/2
x ∈ X ⊂ Rd
Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .
Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1 , x2 , . . . )
analyser les résultats et quantifier les incertitudes
Planification séquentielle
ξ(x) ∈ Rp
Julien Bect (SUPELEC)
planifier chaque calcul en fonction des précédents
couplage planification / analyse
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
9. Exemple 1 : optimisation de forme (Renault)
Contexte : CAO
calculs de CFD 3D
thèse de J. Villemonteix (2008)
encadrement : E. Vazquez,
M. Sidorkiewicz et E. Walter
Objectif(s)
optimiser la forme du conduit d’admission
maximiser les performances du moteur
minimiser les émissions de polluant
Caractéristiques
≈ 1 h / calcul
6 paramètres de forme à ajuster
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
10. Exemple 2 : projet BEMUSE (CEA, IRSN, . . . )
Contexte : sûreté nucléaire
calculs thermo-hydrauliques
réalisés avec le logiciel CATHARE
benchmark international
(de Crécy et al., NED, 2008)
Scenario
perte de réfrigérant due à une brèche
grandeur d’intérêt : température max.
Caractéristiques
≈ 10 minutes / calcul
53 paramètres incertains
Principaux objectifs
estimation d’un quantile de Tmax
analyse de sensibilité
Julien Bect (SUPELEC)
Computer experiments
(B. Iooss, J. Nat. Fiabilité, 2010)
Séminaire ONERA/DSNA 28 novembre 2
/ 24
11. Exemple 3 : étude d’un risque de crue (EDF R&D)
Scenario
Contexte : sûreté des installations
étude du risque de crue
calculs d’hydraulique
équ. de Saint Venant 1D ou 2D
facteurs : débit, coeff. de Strickler
réponse : hauteur d’eau H
logiciels
MASCARET (1D)
OpenTELEMAC (2D)
http://www.opentelemac.org
projet ANR OPUS
Principaux objectifs
propagation d’incertitudes
estimation d’un quantile sur H
analyse de sensibilité
(M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010)
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
12. Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
13. Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
14. Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }
Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X ) > ξcrit )
estimer un quantile
caractériser la loi de Y = ξ(X )
réaliser une analyse de sensibilité
...
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
15. Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil
Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }
Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X ) > ξcrit )
estimer un quantile
caractériser la loi de Y = ξ(X )
réaliser une analyse de sensibilité
...
En pratique : bien souvent, un mélange de tous ces objectifs !
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
16. Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
17. Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit
Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D
simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
18. Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !
Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit
Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D
simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .
Disponibilité du gradient ?
souvent, pas de gradient disponible
exception : code adjoint
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
19. 1
Introduction : exploration de modèles numériques coûteux
2
Optimisation globale : des méta-modèles à l’approche bayésienne
3
Bayesian Subset Simulation : un autre exemple de planification séquentielle
4
Conclusion
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
20. Optimisation globale
On considère un problème d’optimisation globale
fonction ξ a priori multimodale
quelle planification (séquentielle) d’expériences utiliser ?
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
Julien Bect (SUPELEC)
0
0.1
0.2
0.3
0.4
0.5
x
0.6
0.7
Computer experiments
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
21. Compromis exploration/exploitation
Deux stratégies « extrêmes »
1
0.9
remplir au mieux le domaine X
0.8
0.7
essayer d’aller droit au but
0.5
0.4
0.3
0.2
0.1
choisir un bon x1 ∈ X (connaissance a priori)
optimiser localement, par ex. Nelder-Mead
Julien Bect (SUPELEC)
0.6
yy
ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N
2N
échantillonages LHS, maximin, . . . (si d ≥ 2)
Computer experiments
0
0
0.1
0.2
0.3
0.4
0.5
xx
0.6
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
22. Compromis exploration/exploitation
Deux stratégies « extrêmes »
1
0.9
remplir au mieux le domaine X
0.8
0.7
essayer d’aller droit au but
0.6
yy
ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N
2N
échantillonages LHS, maximin, . . . (si d ≥ 2)
0.5
0.4
0.3
0.2
0.1
choisir un bon x1 ∈ X (connaissance a priori)
optimiser localement, par ex. Nelder-Mead
0
0
0.1
0.2
0.3
0.4
0.5
xx
0.6
0.7
0.8
0.9
1
Principe fondamental
bien optimiser globalement ⇒
chercher un compromis entre
exploration et exploitation
Explorer tout le domaine, oui, mais pas uniformément !
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
23. Utilisation d’un méta-modèle
Méta-modèle ?
modèle simplifié de ξ, plus rapide à évaluer
exemples : krigeage, RBF, réseau de neurones. . .
cas d’observations sans bruit − interpolation
→
Approche générale (planification séquentielle)
1
2
init : remplir X avec n0 < N points
pour n = n0 + 1 : N ,
ajuster un méta-modèle aux données x1 , ξ(x1 ), . . . , xn−1 , ξ(xn−1 )
utiliser ce méta-modèle pour choisir xn
3
ˆ
renvoyer x ∗ = argmax ξ(xn ), ξ ∗ = ξ (ˆ∗ )
ˆ
x
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
24. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
25. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
26. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=5
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
27. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=6
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
28. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=7
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
29. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=8
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
30. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=9
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
31. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 10
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
x
0.6
Computer experiments
0.7
0.8
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
32. Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 11
2
1.5
1
ξ(x)
0.5
0
−0.5
−1
−1.5
−2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
x
Convergence vers un maximum local !
Julien Bect (SUPELEC)
Computer experiments
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
33. Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans l’absolu : on doit préciser à quel type de
fonctions on s’intéresse !
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
34. Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans l’absolu : on doit préciser à quel type de
fonctions on s’intéresse !
Thomas Bayes
(1702–1761)
Solution bayésienne
Nécessité de quantifier l’incertitude pour faire des
choix rationnels.
La théorie bayésienne de la décision fournit un
cadre cohérent → représentation probabiliste de
l’incertitude.
Harold Kushner
Repères biblio de base :
H. Kushner (1964) : P-algorithme
J. Mockus et al. (1978) : critère EI
D. Jones et al. (1998) : algorithme EGO
Julien Bect (SUPELEC)
Computer experiments
Jonas Mockus
Séminaire ONERA/DSNA 28 novembre 2
/ 24
35. Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
36. Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn ))
loi a posteriori Pn = P (ξ ∈ · | I0 , ξn )
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
37. Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn ))
loi a posteriori Pn = P (ξ ∈ · | I0 , ξn )
Remarque importante
ˆ
ξn (x) = E (ξ(x) | I0 , ξn ) est un méta-modèle naturel dans ce cadre. . .
. . . mais Pn contient beaucoup plus d’information !
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
38. Illustration
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
4
3
2
ξ(x)
1
0
−1
−2
−3
−4
0
Julien Bect (SUPELEC)
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
x
Simulations sous la loi a priori P0
Computer experiments
0.9
1
Séminaire ONERA/DSNA 28 novembre 2
/ 24
40. Comment choisir xn+1 connaissant I0 , ξn ?
1
En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0 , ξn )
qui mesure l’intérêt d’une évaluation en x.
2
On choisit le prochain point à l’aide de ce critère
xn+1 = argmax Jn (x; I0 , ξn )
x∈X
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
41. Comment choisir xn+1 connaissant I0 , ξn ?
1
En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0 , ξn )
qui mesure l’intérêt d’une évaluation en x.
2
On choisit le prochain point à l’aide de ce critère
xn+1 = argmax Jn (x; I0 , ξn )
x∈X
Un critère très utilisé : expected improvement (EI)
Jn (x; I0 , ξn ) = E ((ξ(x) − Mn )+ | I0 , ξn )
avec Mn = max (ξ(x1 ), . . . , ξ(xn )).
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
60. 1
Introduction : exploration de modèles numériques coûteux
2
Optimisation globale : des méta-modèles à l’approche bayésienne
3
Bayesian Subset Simulation : un autre exemple de planification séquentielle
4
Conclusion
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
61. Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .
critères adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
62. Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .
critères adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .
Une communauté de recherche active
en France : le GdR MASCOT-NUM
Méthodes d’Analyse Stochastique pour les COdeset Traitements Numériques
http://www.gdr-mascotnum.fr
conférence annuelle : à Zurich en 2014
international : MUCM
Managing Uncertainty in Computer Models
http://www.mucm.ac.uk
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24
63. Références : quelques thèses soutenues à Supélec
thèse de Romain BENASSI (2013)
optimisation bayésienne
encadrement : J. Bect et E. Vazquez (Dir.)
financement : bourse MESR
thèse de Ling LI (2012)
estimation de probabilités d’événements rares
encadrement : J. Bect et E. Vazquez
financement : projet CSDL (pôle Systematic)
thèse de Julien VILLEMONTEIX (2008)
optimisation bayésienne
encadrement : E. Vazquez, M. Sidorkiewicz et É. Walter (Dir)
financement : CIFRE Renault
thèse de Miguel PIERA-MARTINEZ (2008)
estimation de probabilités d’événements rares
encadrement : E. Vazquez et É. Walter (Dir)
financement : fondation EADS
Julien Bect (SUPELEC)
Computer experiments
Séminaire ONERA/DSNA 28 novembre 2
/ 24