SlideShare une entreprise Scribd logo
1  sur  63
Télécharger pour lire hors ligne
Planification et analyse d’expériences numériques :
approche bayésienne
(introduction, orientée vers la planification séquentielle)

Julien Bect
SUPELEC — GdR MASCOT-NUM — IRT SystemX

Séminaire ONERA/DSNA
28 novembre 2013

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayésienne

3

Bayesian Subset Simulation : un autre exemple de planification séquentielle

4

Conclusion

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...

ξ(x) ∈ Rp

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...

x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
...

ξ(x) ∈ Rp

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 1/2

x ∈ X ⊂ Rd

Soit ξ : X → Rp un modèle numérique
d’un système à concevoir ou à étudier (fiabilité),
d’un phénomène physique ou biologique,
...

x : facteurs
paramètres de conception (à choisir),
paramètres physiques (éventuellement mal connus),
...

Qu’entendons-nous par « expérience numérique » ?
ξ(x) ∈ Rp

Julien Bect (SUPELEC)

une expérience ≡ évaluer une réponse ξ(x) du code
chaque expérience coûte (souvent, du temps !)
budget d’expériences limité

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .

ξ(x) ∈ Rp

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .

Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1 , x2 , . . . )
analyser les résultats et quantifier les incertitudes

ξ(x) ∈ Rp

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
« Expériences numériques » (computer experiments) 2/2

x ∈ X ⊂ Rd

Point de vue du statisticien
le code est une « boîte noire »
on veut obtenir des informations sur ξ
à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . .

Deux aspects, comme en statistique « classique »
planifier les calculs (choisir x1 , x2 , . . . )
analyser les résultats et quantifier les incertitudes

Planification séquentielle
ξ(x) ∈ Rp

Julien Bect (SUPELEC)

planifier chaque calcul en fonction des précédents
couplage planification / analyse

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Exemple 1 : optimisation de forme (Renault)

Contexte : CAO
calculs de CFD 3D
thèse de J. Villemonteix (2008)
encadrement : E. Vazquez,
M. Sidorkiewicz et E. Walter
Objectif(s)
optimiser la forme du conduit d’admission
maximiser les performances du moteur
minimiser les émissions de polluant
Caractéristiques
≈ 1 h / calcul
6 paramètres de forme à ajuster

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Exemple 2 : projet BEMUSE (CEA, IRSN, . . . )
Contexte : sûreté nucléaire
calculs thermo-hydrauliques
réalisés avec le logiciel CATHARE
benchmark international
(de Crécy et al., NED, 2008)

Scenario
perte de réfrigérant due à une brèche
grandeur d’intérêt : température max.
Caractéristiques
≈ 10 minutes / calcul
53 paramètres incertains
Principaux objectifs
estimation d’un quantile de Tmax
analyse de sensibilité

Julien Bect (SUPELEC)

Computer experiments

(B. Iooss, J. Nat. Fiabilité, 2010)

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Exemple 3 : étude d’un risque de crue (EDF R&D)
Scenario

Contexte : sûreté des installations

étude du risque de crue

calculs d’hydraulique
équ. de Saint Venant 1D ou 2D

facteurs : débit, coeff. de Strickler
réponse : hauteur d’eau H

logiciels
MASCARET (1D)
OpenTELEMAC (2D)
http://www.opentelemac.org
projet ANR OPUS

Principaux objectifs
propagation d’incertitudes
estimation d’un quantile sur H
analyse de sensibilité

(M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010)
Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil

Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil

Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }

Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X ) > ξcrit )
estimer un quantile
caractériser la loi de Y = ξ(X )
réaliser une analyse de sensibilité
...

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Objectif(s) : ce que l’on veut savoir sur ξ
Construire un « méta-modèle » : approximation peu coûteuse
approximation globale, sur l’ensemble du domaine X,
ou locale, par ex. précise au voisinage d’un seuil

Chercher un optimum de performance ou un pire cas
chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ )
optimisation multi-objectif / sous contraintes / robuste / . . .
estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit }

Propagation d’incertitude : X ∼ PX
estimer une proba de défaillance : PX (ξ(X ) > ξcrit )
estimer un quantile
caractériser la loi de Y = ξ(X )
réaliser une analyse de sensibilité
...

En pratique : bien souvent, un mélange de tous ces objectifs !
Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !

Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit

Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D

simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Diversité des codes de calculs
Cadre computer experiments traditionnel
code de calcul déterministe, (plus ou moins) coûteux
différence importante avec les expériences physique :
faire des répétitions n’a pas de sens !

Simulateurs stochastiques
sortie aléatoire : x → ξ(x) + bruit

Multi-fidélité
plusieurs simulateurs, plus ou moins précis
exemple : 1D / 2D / 3D

simulateur à précision « ajustable »
exemple : pas de discrétisation, tolérance, . . .

Disponibilité du gradient ?
souvent, pas de gradient disponible
exception : code adjoint

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayésienne

3

Bayesian Subset Simulation : un autre exemple de planification séquentielle

4

Conclusion

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Optimisation globale
On considère un problème d’optimisation globale
fonction ξ a priori multimodale
quelle planification (séquentielle) d’expériences utiliser ?
2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

Julien Bect (SUPELEC)

0

0.1

0.2

0.3

0.4

0.5

x

0.6

0.7

Computer experiments

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Compromis exploration/exploitation
Deux stratégies « extrêmes »

1

0.9

remplir au mieux le domaine X

0.8

0.7

essayer d’aller droit au but

0.5

0.4

0.3

0.2

0.1

choisir un bon x1 ∈ X (connaissance a priori)
optimiser localement, par ex. Nelder-Mead

Julien Bect (SUPELEC)

0.6
yy

ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N
2N
échantillonages LHS, maximin, . . . (si d ≥ 2)

Computer experiments

0

0

0.1

0.2

0.3

0.4

0.5
xx

0.6

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Compromis exploration/exploitation
Deux stratégies « extrêmes »

1

0.9

remplir au mieux le domaine X

0.8

0.7

essayer d’aller droit au but

0.6
yy

ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N
2N
échantillonages LHS, maximin, . . . (si d ≥ 2)

0.5

0.4

0.3

0.2

0.1

choisir un bon x1 ∈ X (connaissance a priori)
optimiser localement, par ex. Nelder-Mead

0

0

0.1

0.2

0.3

0.4

0.5
xx

0.6

0.7

0.8

0.9

1

Principe fondamental
bien optimiser globalement ⇒

chercher un compromis entre
exploration et exploitation

Explorer tout le domaine, oui, mais pas uniformément !

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Utilisation d’un méta-modèle
Méta-modèle ?
modèle simplifié de ξ, plus rapide à évaluer
exemples : krigeage, RBF, réseau de neurones. . .
cas d’observations sans bruit − interpolation
→

Approche générale (planification séquentielle)
1
2

init : remplir X avec n0 < N points
pour n = n0 + 1 : N ,
ajuster un méta-modèle aux données x1 , ξ(x1 ), . . . , xn−1 , ξ(xn−1 )
utiliser ce méta-modèle pour choisir xn

3

ˆ
renvoyer x ∗ = argmax ξ(xn ), ξ ∗ = ξ (ˆ∗ )
ˆ
x

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = n0 = 4

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=5

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=6

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=7

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=8

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n=9

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 10

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration : usage optimiste du méta-modèle
Exemple avec X = [0; 1], méta-modèle : krigeage.
n = 11

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

x
Convergence vers un maximum local !

Julien Bect (SUPELEC)

Computer experiments

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans l’absolu : on doit préciser à quel type de
fonctions on s’intéresse !

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Principes de l’optimisation bayésienne
Constat essentiel
Il n’existe pas de « bon » algorithme d’optimisation
globale dans l’absolu : on doit préciser à quel type de
fonctions on s’intéresse !
Thomas Bayes
(1702–1761)

Solution bayésienne
Nécessité de quantifier l’incertitude pour faire des
choix rationnels.
La théorie bayésienne de la décision fournit un
cadre cohérent → représentation probabiliste de
l’incertitude.

Harold Kushner

Repères biblio de base :
H. Kushner (1964) : P-algorithme
J. Mockus et al. (1978) : critère EI
D. Jones et al. (1998) : algorithme EGO
Julien Bect (SUPELEC)

Computer experiments

Jonas Mockus

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn ))
loi a posteriori Pn = P (ξ ∈ · | I0 , ξn )

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Loi a priori / a posteriori
Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 )
→
régularité (dérivabilité), vitesse de variation, . . . )
« tendance » (linéaire, quadratique, . . . )
symétries, monotonie, . . .
Mise à jour des connaissances
après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn ))
loi a posteriori Pn = P (ξ ∈ · | I0 , ξn )

Remarque importante
ˆ
ξn (x) = E (ξ(x) | I0 , ξn ) est un méta-modèle naturel dans ce cadre. . .
. . . mais Pn contient beaucoup plus d’information !

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
4

3

2

ξ(x)

1

0

−1

−2

−3

−4

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

x
Simulations sous la loi a priori P0
Computer experiments

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

x
Moyenne et variance a posteriori Pn0

Computer experiments

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Comment choisir xn+1 connaissant I0 , ξn ?
1

En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0 , ξn )
qui mesure l’intérêt d’une évaluation en x.

2

On choisit le prochain point à l’aide de ce critère
xn+1 = argmax Jn (x; I0 , ξn )
x∈X

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Comment choisir xn+1 connaissant I0 , ξn ?
1

En utilisant la loi a posteriori, on construit un critère d’échantillonnage
x ∈ X → Jn (x; I0 , ξn )
qui mesure l’intérêt d’une évaluation en x.

2

On choisit le prochain point à l’aide de ce critère
xn+1 = argmax Jn (x; I0 , ξn )
x∈X

Un critère très utilisé : expected improvement (EI)
Jn (x; I0 , ξn ) = E ((ξ(x) − Mn )+ | I0 , ξn )
avec Mn = max (ξ(x1 ), . . . , ξ(xn )).

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
n = n0 = 4

2

1.5

1

ξ(x)

0.5

0

−0.5

−1

−1.5

−2

0

Julien Bect (SUPELEC)

0.1

0.2

0.3

0.4

0.5

x

0.6

Computer experiments

0.7

0.8

0.9

1

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.25
0.2

EI

0.15
0.1
0.05
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.12
0.1

EI

0.08
0.06
0.04
0.02
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.05
0.04

EI

0.03
0.02
0.01
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.04

EI

0.03

0.02

0.01

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.035
0.03
0.025
EI

0.02
0.015
0.01
0.005
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.025
0.02

EI

0.015
0.01
0.005
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

6

x 10

5

EI

4
3
2
1
0

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

6

x 10

5

EI

4
3
2
1
0

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

2

x 10

EI

1.5

1

0.5

0

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

1.5

x 10

EI

1

0.5

0

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

1

x 10

0.8

EI

0.6
0.4
0.2
0

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.025
0.02

EI

0.015
0.01
0.005
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.2

EI

0.15

0.1

0.05

0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.5

0.6

0.7

0.8

0.9

1

0.03
0.025

EI

0.02
0.015
0.01
0.005
0

Julien Bect (SUPELEC)

x

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Illustration du critère EI (algorithme EGO)
Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25)
2

ξ(x)

1

0

−1

−2

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

−3

7

x 10

6
5
EI

4
3
2
1
0

0

x
On finit (presque) toujours par explorer les zones « vides » !
cf. théorème(s) de convergence, Vazquez et Bect, 2010
Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayésienne

3

Bayesian Subset Simulation : un autre exemple de planification séquentielle

4

Conclusion

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Bayesian Subset Simulation

Voir présentation PSAM11-ESREL 2012
http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
1

Introduction : exploration de modèles numériques coûteux

2

Optimisation globale : des méta-modèles à l’approche bayésienne

3

Bayesian Subset Simulation : un autre exemple de planification séquentielle

4

Conclusion

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .

critères adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .

Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Ce n’est que le début. . .
Abondante littérature sur la planification séquentielle bayésienne !
En particulier : travaux sur les critères d’échantillonnage
critères adaptés à chaque objectif particulier
approximation globale, optimisation, intégration, . . .

critères adaptés à différents contextes
calcul parallèle (évaluation par batchs)
simulateurs stochastiques, multi-fidélité, . . .

Une communauté de recherche active
en France : le GdR MASCOT-NUM
Méthodes d’Analyse Stochastique pour les COdeset Traitements Numériques
http://www.gdr-mascotnum.fr
conférence annuelle : à Zurich en 2014

international : MUCM
Managing Uncertainty in Computer Models
http://www.mucm.ac.uk
Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24
Références : quelques thèses soutenues à Supélec
thèse de Romain BENASSI (2013)
optimisation bayésienne
encadrement : J. Bect et E. Vazquez (Dir.)
financement : bourse MESR
thèse de Ling LI (2012)
estimation de probabilités d’événements rares
encadrement : J. Bect et E. Vazquez
financement : projet CSDL (pôle Systematic)
thèse de Julien VILLEMONTEIX (2008)
optimisation bayésienne
encadrement : E. Vazquez, M. Sidorkiewicz et É. Walter (Dir)
financement : CIFRE Renault
thèse de Miguel PIERA-MARTINEZ (2008)
estimation de probabilités d’événements rares
encadrement : E. Vazquez et É. Walter (Dir)
financement : fondation EADS
Julien Bect (SUPELEC)

Computer experiments

Séminaire ONERA/DSNA 28 novembre 2
/ 24

Contenu connexe

Tendances

Scikit learn: apprentissage statistique en Python
Scikit learn: apprentissage statistique en PythonScikit learn: apprentissage statistique en Python
Scikit learn: apprentissage statistique en PythonGael Varoquaux
 
Quelques avancées dans le débruitage d'images par patch
Quelques avancées dans le débruitage d'images par patch Quelques avancées dans le débruitage d'images par patch
Quelques avancées dans le débruitage d'images par patch I MT
 
Discrimination de courbes par SVM
Discrimination de courbes par SVMDiscrimination de courbes par SVM
Discrimination de courbes par SVMtuxette
 
5.1 K plus proches voisins
5.1 K plus proches voisins5.1 K plus proches voisins
5.1 K plus proches voisinsBoris Guarisma
 
Programmation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexeProgrammation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexeJiijishady
 
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...Soumia Elyakote HERMA
 
La complexité des algorithmes récursives Géométrie algorithmique
La complexité des algorithmes récursivesGéométrie algorithmiqueLa complexité des algorithmes récursivesGéométrie algorithmique
La complexité des algorithmes récursives Géométrie algorithmiqueHajer Trabelsi
 
5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoires5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoiresBoris Guarisma
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsSana Aroussi
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite completChahrawoods Dmz
 

Tendances (15)

Scikit learn: apprentissage statistique en Python
Scikit learn: apprentissage statistique en PythonScikit learn: apprentissage statistique en Python
Scikit learn: apprentissage statistique en Python
 
Théo inf
Théo infThéo inf
Théo inf
 
Quelques avancées dans le débruitage d'images par patch
Quelques avancées dans le débruitage d'images par patch Quelques avancées dans le débruitage d'images par patch
Quelques avancées dans le débruitage d'images par patch
 
Discrimination de courbes par SVM
Discrimination de courbes par SVMDiscrimination de courbes par SVM
Discrimination de courbes par SVM
 
Diviser Pour Régner
Diviser Pour RégnerDiviser Pour Régner
Diviser Pour Régner
 
5.1 K plus proches voisins
5.1 K plus proches voisins5.1 K plus proches voisins
5.1 K plus proches voisins
 
Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)
 
Programmation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexeProgrammation lineaire algorithme_du_simplexe
Programmation lineaire algorithme_du_simplexe
 
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...
Expérimentation et interprétation des algorithmes de tri élémentaires tp algo...
 
Presentation
PresentationPresentation
Presentation
 
La complexité des algorithmes récursives Géométrie algorithmique
La complexité des algorithmes récursivesGéométrie algorithmiqueLa complexité des algorithmes récursivesGéométrie algorithmique
La complexité des algorithmes récursives Géométrie algorithmique
 
5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoires5.4 Arbres et forêts aléatoires
5.4 Arbres et forêts aléatoires
 
Chapitre v algorithmes gloutons
Chapitre v algorithmes gloutonsChapitre v algorithmes gloutons
Chapitre v algorithmes gloutons
 
Algorithme knn
Algorithme knnAlgorithme knn
Algorithme knn
 
Cours algorithmique et complexite complet
Cours algorithmique et complexite completCours algorithmique et complexite complet
Cours algorithmique et complexite complet
 

En vedette

Diseño curricular nacional
Diseño curricular nacionalDiseño curricular nacional
Diseño curricular nacionalvaniabenavides
 
Software para recuperar archivos eliminados
Software para recuperar archivos eliminadosSoftware para recuperar archivos eliminados
Software para recuperar archivos eliminadosVale Andrade
 
Tratamiento Contable de Softwares
Tratamiento Contable de SoftwaresTratamiento Contable de Softwares
Tratamiento Contable de SoftwaresYasnina Torres
 
Expose : la cuisine de taiwanaise
Expose : la cuisine de taiwanaiseExpose : la cuisine de taiwanaise
Expose : la cuisine de taiwanaiseQuincy Hsieh
 
Colección de algodones 2015
Colección de algodones 2015Colección de algodones 2015
Colección de algodones 2015GBSNetworks
 
Ahorrar en la factura del agua
Ahorrar en la factura del aguaAhorrar en la factura del agua
Ahorrar en la factura del aguaAltoYclaro Huelva
 
Presentación1
Presentación1Presentación1
Presentación1jugadores
 
Survey monkey questionnaire results
Survey monkey questionnaire resultsSurvey monkey questionnaire results
Survey monkey questionnaire results25423
 
La veille de red guy du 22.05.13 - la techno à bas prix
La veille de red guy du 22.05.13 - la techno à bas prixLa veille de red guy du 22.05.13 - la techno à bas prix
La veille de red guy du 22.05.13 - la techno à bas prixRed Guy
 
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -escaconference
 
Social crm - Conférence de publication
Social crm   - Conférence de publicationSocial crm   - Conférence de publication
Social crm - Conférence de publicationEric Lévy-Bencheton
 
Componentes de la computadora
Componentes de la  computadoraComponentes de la  computadora
Componentes de la computadorageneisbaque
 
Les bases de calcul des cotisations sociales
Les bases de calcul des cotisations socialesLes bases de calcul des cotisations sociales
Les bases de calcul des cotisations socialesPatricia Amodeo
 

En vedette (20)

Funciones
FuncionesFunciones
Funciones
 
Mmgarcia 3- datos cuantitativos-1
Mmgarcia 3- datos cuantitativos-1Mmgarcia 3- datos cuantitativos-1
Mmgarcia 3- datos cuantitativos-1
 
Diseño curricular nacional
Diseño curricular nacionalDiseño curricular nacional
Diseño curricular nacional
 
Sistemas operativos
Sistemas operativosSistemas operativos
Sistemas operativos
 
Software para recuperar archivos eliminados
Software para recuperar archivos eliminadosSoftware para recuperar archivos eliminados
Software para recuperar archivos eliminados
 
Tratamiento Contable de Softwares
Tratamiento Contable de SoftwaresTratamiento Contable de Softwares
Tratamiento Contable de Softwares
 
Tplants
TplantsTplants
Tplants
 
Expose : la cuisine de taiwanaise
Expose : la cuisine de taiwanaiseExpose : la cuisine de taiwanaise
Expose : la cuisine de taiwanaise
 
Colección de algodones 2015
Colección de algodones 2015Colección de algodones 2015
Colección de algodones 2015
 
Ahorrar en la factura del agua
Ahorrar en la factura del aguaAhorrar en la factura del agua
Ahorrar en la factura del agua
 
Presentación1
Presentación1Presentación1
Presentación1
 
Survey monkey questionnaire results
Survey monkey questionnaire resultsSurvey monkey questionnaire results
Survey monkey questionnaire results
 
Blogs
BlogsBlogs
Blogs
 
04 analisis holistico (2011)
04 analisis holistico (2011)04 analisis holistico (2011)
04 analisis holistico (2011)
 
La veille de red guy du 22.05.13 - la techno à bas prix
La veille de red guy du 22.05.13 - la techno à bas prixLa veille de red guy du 22.05.13 - la techno à bas prix
La veille de red guy du 22.05.13 - la techno à bas prix
 
Recursos web 2
Recursos web 2Recursos web 2
Recursos web 2
 
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -
Les médias sociaux au Maroc, pratiques actuelles et tendances - ESCA 2.0 -
 
Social crm - Conférence de publication
Social crm   - Conférence de publicationSocial crm   - Conférence de publication
Social crm - Conférence de publication
 
Componentes de la computadora
Componentes de la  computadoraComponentes de la  computadora
Componentes de la computadora
 
Les bases de calcul des cotisations sociales
Les bases de calcul des cotisations socialesLes bases de calcul des cotisations sociales
Les bases de calcul des cotisations sociales
 

Similaire à Planification et analyse d'expériences numériques: approche bayésienne

FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretjfeudeline
 
optimisation cours.pdf
optimisation cours.pdfoptimisation cours.pdf
optimisation cours.pdfMouloudi1
 
analyse_discriminante.pdf
analyse_discriminante.pdfanalyse_discriminante.pdf
analyse_discriminante.pdfSidiAbdallah1
 
Clustering efficace avec les divergences de bregman
Clustering efficace avec les divergences de bregmanClustering efficace avec les divergences de bregman
Clustering efficace avec les divergences de bregmanMedalith Estrada
 
Xavier Milaud - Techniques d'arbres de classification et de régression
Xavier Milaud - Techniques d'arbres de classification et de régressionXavier Milaud - Techniques d'arbres de classification et de régression
Xavier Milaud - Techniques d'arbres de classification et de régressionKezhan SHI
 
Examples of use of the Salome Platform For Teaching and Research Activities A...
Examples of use of the Salome Platform For Teaching and Research Activities A...Examples of use of the Salome Platform For Teaching and Research Activities A...
Examples of use of the Salome Platform For Teaching and Research Activities A...OpenCascade
 
logistic_regression_ml.pdf
logistic_regression_ml.pdflogistic_regression_ml.pdf
logistic_regression_ml.pdfSidiAbdallah1
 
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...Yassine Selmi
 
Résolution numérique de l'équation de Black Scholes en python
Résolution numérique de l'équation de Black Scholes en pythonRésolution numérique de l'équation de Black Scholes en python
Résolution numérique de l'équation de Black Scholes en pythonAli SIDIBE
 
Claire epita-février2014
Claire epita-février2014Claire epita-février2014
Claire epita-février2014Yves Caseau
 
La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications Ibrahim Chegrane
 
La spécialité maths en Terminale S
La spécialité maths en Terminale SLa spécialité maths en Terminale S
La spécialité maths en Terminale SPhilippe Bancourt
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdfhanamettali
 

Similaire à Planification et analyse d'expériences numériques: approche bayésienne (20)

TV_Soutenance_2012
TV_Soutenance_2012TV_Soutenance_2012
TV_Soutenance_2012
 
FLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caretFLTauR - Construction de modèles de prévision sous r avec le package caret
FLTauR - Construction de modèles de prévision sous r avec le package caret
 
optimisation cours.pdf
optimisation cours.pdfoptimisation cours.pdf
optimisation cours.pdf
 
analyse_discriminante.pdf
analyse_discriminante.pdfanalyse_discriminante.pdf
analyse_discriminante.pdf
 
Clustering efficace avec les divergences de bregman
Clustering efficace avec les divergences de bregmanClustering efficace avec les divergences de bregman
Clustering efficace avec les divergences de bregman
 
Xavier Milaud - Techniques d'arbres de classification et de régression
Xavier Milaud - Techniques d'arbres de classification et de régressionXavier Milaud - Techniques d'arbres de classification et de régression
Xavier Milaud - Techniques d'arbres de classification et de régression
 
Examples of use of the Salome Platform For Teaching and Research Activities A...
Examples of use of the Salome Platform For Teaching and Research Activities A...Examples of use of the Salome Platform For Teaching and Research Activities A...
Examples of use of the Salome Platform For Teaching and Research Activities A...
 
logistic_regression_ml.pdf
logistic_regression_ml.pdflogistic_regression_ml.pdf
logistic_regression_ml.pdf
 
030225+seminar+gelo+diro.ppt
030225+seminar+gelo+diro.ppt030225+seminar+gelo+diro.ppt
030225+seminar+gelo+diro.ppt
 
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
[Présentation PFE] Conception et implémentation d'un estimateur conjoint de l...
 
Résolution numérique de l'équation de Black Scholes en python
Résolution numérique de l'équation de Black Scholes en pythonRésolution numérique de l'équation de Black Scholes en python
Résolution numérique de l'équation de Black Scholes en python
 
Claire epita-février2014
Claire epita-février2014Claire epita-février2014
Claire epita-février2014
 
040423+seminar+info+uqam.ppt
040423+seminar+info+uqam.ppt040423+seminar+info+uqam.ppt
040423+seminar+info+uqam.ppt
 
Expose.ppt
Expose.pptExpose.ppt
Expose.ppt
 
La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications La recherche approchée de motifs : théorie et applications
La recherche approchée de motifs : théorie et applications
 
Cari2020 dembele
Cari2020 dembeleCari2020 dembele
Cari2020 dembele
 
La spécialité maths en Terminale S
La spécialité maths en Terminale SLa spécialité maths en Terminale S
La spécialité maths en Terminale S
 
Actuariat et Données
Actuariat et DonnéesActuariat et Données
Actuariat et Données
 
Apprentissage supervisé.pdf
Apprentissage supervisé.pdfApprentissage supervisé.pdf
Apprentissage supervisé.pdf
 
Cours de Matlab
Cours de MatlabCours de Matlab
Cours de Matlab
 

Planification et analyse d'expériences numériques: approche bayésienne

  • 1. Planification et analyse d’expériences numériques : approche bayésienne (introduction, orientée vers la planification séquentielle) Julien Bect SUPELEC — GdR MASCOT-NUM — IRT SystemX Séminaire ONERA/DSNA 28 novembre 2013 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 2. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 3. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 4. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), ... ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 5. « Expériences numériques » (computer experiments) 1/2 x ∈ X ⊂ Rd Soit ξ : X → Rp un modèle numérique d’un système à concevoir ou à étudier (fiabilité), d’un phénomène physique ou biologique, ... x : facteurs paramètres de conception (à choisir), paramètres physiques (éventuellement mal connus), ... Qu’entendons-nous par « expérience numérique » ? ξ(x) ∈ Rp Julien Bect (SUPELEC) une expérience ≡ évaluer une réponse ξ(x) du code chaque expérience coûte (souvent, du temps !) budget d’expériences limité Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 6. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 7. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1 , x2 , . . . ) analyser les résultats et quantifier les incertitudes ξ(x) ∈ Rp Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 8. « Expériences numériques » (computer experiments) 2/2 x ∈ X ⊂ Rd Point de vue du statisticien le code est une « boîte noire » on veut obtenir des informations sur ξ à partir d’un échantillon : y1 = ξ(x1 ), y2 = ξ(x2 ), . . . Deux aspects, comme en statistique « classique » planifier les calculs (choisir x1 , x2 , . . . ) analyser les résultats et quantifier les incertitudes Planification séquentielle ξ(x) ∈ Rp Julien Bect (SUPELEC) planifier chaque calcul en fonction des précédents couplage planification / analyse Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 9. Exemple 1 : optimisation de forme (Renault) Contexte : CAO calculs de CFD 3D thèse de J. Villemonteix (2008) encadrement : E. Vazquez, M. Sidorkiewicz et E. Walter Objectif(s) optimiser la forme du conduit d’admission maximiser les performances du moteur minimiser les émissions de polluant Caractéristiques ≈ 1 h / calcul 6 paramètres de forme à ajuster Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 10. Exemple 2 : projet BEMUSE (CEA, IRSN, . . . ) Contexte : sûreté nucléaire calculs thermo-hydrauliques réalisés avec le logiciel CATHARE benchmark international (de Crécy et al., NED, 2008) Scenario perte de réfrigérant due à une brèche grandeur d’intérêt : température max. Caractéristiques ≈ 10 minutes / calcul 53 paramètres incertains Principaux objectifs estimation d’un quantile de Tmax analyse de sensibilité Julien Bect (SUPELEC) Computer experiments (B. Iooss, J. Nat. Fiabilité, 2010) Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 11. Exemple 3 : étude d’un risque de crue (EDF R&D) Scenario Contexte : sûreté des installations étude du risque de crue calculs d’hydraulique équ. de Saint Venant 1D ou 2D facteurs : débit, coeff. de Strickler réponse : hauteur d’eau H logiciels MASCARET (1D) OpenTELEMAC (2D) http://www.opentelemac.org projet ANR OPUS Principaux objectifs propagation d’incertitudes estimation d’un quantile sur H analyse de sensibilité (M. Couplet et al, JdS 2010 ; Arnaud et al, JdS 2010) Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 12. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 13. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 14. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X ) > ξcrit ) estimer un quantile caractériser la loi de Y = ξ(X ) réaliser une analyse de sensibilité ... Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 15. Objectif(s) : ce que l’on veut savoir sur ξ Construire un « méta-modèle » : approximation peu coûteuse approximation globale, sur l’ensemble du domaine X, ou locale, par ex. précise au voisinage d’un seuil Chercher un optimum de performance ou un pire cas chercher x ∗ = argmax ξ et/ou ξ ∗ = ξ(x ∗ ) optimisation multi-objectif / sous contraintes / robuste / . . . estimer un ensemble admissible : {x ∈ X, ξ(x) > ξcrit } Propagation d’incertitude : X ∼ PX estimer une proba de défaillance : PX (ξ(X ) > ξcrit ) estimer un quantile caractériser la loi de Y = ξ(X ) réaliser une analyse de sensibilité ... En pratique : bien souvent, un mélange de tous ces objectifs ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 16. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 17. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 18. Diversité des codes de calculs Cadre computer experiments traditionnel code de calcul déterministe, (plus ou moins) coûteux différence importante avec les expériences physique : faire des répétitions n’a pas de sens ! Simulateurs stochastiques sortie aléatoire : x → ξ(x) + bruit Multi-fidélité plusieurs simulateurs, plus ou moins précis exemple : 1D / 2D / 3D simulateur à précision « ajustable » exemple : pas de discrétisation, tolérance, . . . Disponibilité du gradient ? souvent, pas de gradient disponible exception : code adjoint Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 19. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 20. Optimisation globale On considère un problème d’optimisation globale fonction ξ a priori multimodale quelle planification (séquentielle) d’expériences utiliser ? 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 Julien Bect (SUPELEC) 0 0.1 0.2 0.3 0.4 0.5 x 0.6 0.7 Computer experiments 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 21. Compromis exploration/exploitation Deux stratégies « extrêmes » 1 0.9 remplir au mieux le domaine X 0.8 0.7 essayer d’aller droit au but 0.5 0.4 0.3 0.2 0.1 choisir un bon x1 ∈ X (connaissance a priori) optimiser localement, par ex. Nelder-Mead Julien Bect (SUPELEC) 0.6 yy ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N 2N échantillonages LHS, maximin, . . . (si d ≥ 2) Computer experiments 0 0 0.1 0.2 0.3 0.4 0.5 xx 0.6 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 22. Compromis exploration/exploitation Deux stratégies « extrêmes » 1 0.9 remplir au mieux le domaine X 0.8 0.7 essayer d’aller droit au but 0.6 yy ex : X = [0; 1], xi = 2i−1 , 1 ≤ i ≤ N 2N échantillonages LHS, maximin, . . . (si d ≥ 2) 0.5 0.4 0.3 0.2 0.1 choisir un bon x1 ∈ X (connaissance a priori) optimiser localement, par ex. Nelder-Mead 0 0 0.1 0.2 0.3 0.4 0.5 xx 0.6 0.7 0.8 0.9 1 Principe fondamental bien optimiser globalement ⇒ chercher un compromis entre exploration et exploitation Explorer tout le domaine, oui, mais pas uniformément ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 23. Utilisation d’un méta-modèle Méta-modèle ? modèle simplifié de ξ, plus rapide à évaluer exemples : krigeage, RBF, réseau de neurones. . . cas d’observations sans bruit − interpolation → Approche générale (planification séquentielle) 1 2 init : remplir X avec n0 < N points pour n = n0 + 1 : N , ajuster un méta-modèle aux données x1 , ξ(x1 ), . . . , xn−1 , ξ(xn−1 ) utiliser ce méta-modèle pour choisir xn 3 ˆ renvoyer x ∗ = argmax ξ(xn ), ξ ∗ = ξ (ˆ∗ ) ˆ x Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 24. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 25. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 26. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=5 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 27. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=6 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 28. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=7 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 29. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=8 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 30. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n=9 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 31. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = 10 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 32. Illustration : usage optimiste du méta-modèle Exemple avec X = [0; 1], méta-modèle : krigeage. n = 11 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 x Convergence vers un maximum local ! Julien Bect (SUPELEC) Computer experiments 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 33. Principes de l’optimisation bayésienne Constat essentiel Il n’existe pas de « bon » algorithme d’optimisation globale dans l’absolu : on doit préciser à quel type de fonctions on s’intéresse ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 34. Principes de l’optimisation bayésienne Constat essentiel Il n’existe pas de « bon » algorithme d’optimisation globale dans l’absolu : on doit préciser à quel type de fonctions on s’intéresse ! Thomas Bayes (1702–1761) Solution bayésienne Nécessité de quantifier l’incertitude pour faire des choix rationnels. La théorie bayésienne de la décision fournit un cadre cohérent → représentation probabiliste de l’incertitude. Harold Kushner Repères biblio de base : H. Kushner (1964) : P-algorithme J. Mockus et al. (1978) : critère EI D. Jones et al. (1998) : algorithme EGO Julien Bect (SUPELEC) Computer experiments Jonas Mockus Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 35. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 36. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn )) loi a posteriori Pn = P (ξ ∈ · | I0 , ξn ) Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 37. Loi a priori / a posteriori Informations a priori sur ξ − processus aléatoire, i.e. P0 = P (ξ ∈ · | I0 ) → régularité (dérivabilité), vitesse de variation, . . . ) « tendance » (linéaire, quadratique, . . . ) symétries, monotonie, . . . Mise à jour des connaissances après n évaluations, on a appris : ξn = (ξ(x1 ), . . . , ξ(xn )) loi a posteriori Pn = P (ξ ∈ · | I0 , ξn ) Remarque importante ˆ ξn (x) = E (ξ(x) | I0 , ξn ) est un méta-modèle naturel dans ce cadre. . . . . . mais Pn contient beaucoup plus d’information ! Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 38. Illustration Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 4 3 2 ξ(x) 1 0 −1 −2 −3 −4 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 x Simulations sous la loi a priori P0 Computer experiments 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 39. Illustration Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 x Moyenne et variance a posteriori Pn0 Computer experiments 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 40. Comment choisir xn+1 connaissant I0 , ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0 , ξn ) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax Jn (x; I0 , ξn ) x∈X Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 41. Comment choisir xn+1 connaissant I0 , ξn ? 1 En utilisant la loi a posteriori, on construit un critère d’échantillonnage x ∈ X → Jn (x; I0 , ξn ) qui mesure l’intérêt d’une évaluation en x. 2 On choisit le prochain point à l’aide de ce critère xn+1 = argmax Jn (x; I0 , ξn ) x∈X Un critère très utilisé : expected improvement (EI) Jn (x; I0 , ξn ) = E ((ξ(x) − Mn )+ | I0 , ξn ) avec Mn = max (ξ(x1 ), . . . , ξ(xn )). Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 42. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) n = n0 = 4 2 1.5 1 ξ(x) 0.5 0 −0.5 −1 −1.5 −2 0 Julien Bect (SUPELEC) 0.1 0.2 0.3 0.4 0.5 x 0.6 Computer experiments 0.7 0.8 0.9 1 Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 43. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.25 0.2 EI 0.15 0.1 0.05 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 44. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.12 0.1 EI 0.08 0.06 0.04 0.02 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 45. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.05 0.04 EI 0.03 0.02 0.01 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 46. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.04 EI 0.03 0.02 0.01 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 47. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.035 0.03 0.025 EI 0.02 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 48. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.025 0.02 EI 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 49. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 6 x 10 5 EI 4 3 2 1 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 50. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 6 x 10 5 EI 4 3 2 1 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 51. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 2 x 10 EI 1.5 1 0.5 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 52. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 1.5 x 10 EI 1 0.5 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 53. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 1 x 10 0.8 EI 0.6 0.4 0.2 0 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 54. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.025 0.02 EI 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 55. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.2 EI 0.15 0.1 0.05 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 56. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.5 0.6 0.7 0.8 0.9 1 0.03 0.025 EI 0.02 0.015 0.01 0.005 0 Julien Bect (SUPELEC) x Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 57. Illustration du critère EI (algorithme EGO) Modèle : processus gaussien (covariance de Matérn, σ 2 = 1, ν = 2, ρ = 0.25) 2 ξ(x) 1 0 −1 −2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 −3 7 x 10 6 5 EI 4 3 2 1 0 0 x On finit (presque) toujours par explorer les zones « vides » ! cf. théorème(s) de convergence, Vazquez et Bect, 2010 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 58. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 59. Bayesian Subset Simulation Voir présentation PSAM11-ESREL 2012 http://fr.slideshare.net/JulienBect/bect-bsspsamesrel2012 Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 60. 1 Introduction : exploration de modèles numériques coûteux 2 Optimisation globale : des méta-modèles à l’approche bayésienne 3 Bayesian Subset Simulation : un autre exemple de planification séquentielle 4 Conclusion Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 61. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . critères adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 62. Ce n’est que le début. . . Abondante littérature sur la planification séquentielle bayésienne ! En particulier : travaux sur les critères d’échantillonnage critères adaptés à chaque objectif particulier approximation globale, optimisation, intégration, . . . critères adaptés à différents contextes calcul parallèle (évaluation par batchs) simulateurs stochastiques, multi-fidélité, . . . Une communauté de recherche active en France : le GdR MASCOT-NUM Méthodes d’Analyse Stochastique pour les COdeset Traitements Numériques http://www.gdr-mascotnum.fr conférence annuelle : à Zurich en 2014 international : MUCM Managing Uncertainty in Computer Models http://www.mucm.ac.uk Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24
  • 63. Références : quelques thèses soutenues à Supélec thèse de Romain BENASSI (2013) optimisation bayésienne encadrement : J. Bect et E. Vazquez (Dir.) financement : bourse MESR thèse de Ling LI (2012) estimation de probabilités d’événements rares encadrement : J. Bect et E. Vazquez financement : projet CSDL (pôle Systematic) thèse de Julien VILLEMONTEIX (2008) optimisation bayésienne encadrement : E. Vazquez, M. Sidorkiewicz et É. Walter (Dir) financement : CIFRE Renault thèse de Miguel PIERA-MARTINEZ (2008) estimation de probabilités d’événements rares encadrement : E. Vazquez et É. Walter (Dir) financement : fondation EADS Julien Bect (SUPELEC) Computer experiments Séminaire ONERA/DSNA 28 novembre 2 / 24