Top Banner
Optimisation bayésienne par méthodes SMC Romain Benassi Julien Bect Emmanuel Vazquez SUPELEC 21 mars 2012 Mascot Num 2012 Bruyères-le-Châtel, France Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 1 / 27
56

Optimisation bayésienne par méthodes SMC

Jul 29, 2015

Download

Documents

Julien Bect
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Optimisation bayésienne par méthodes SMC

Optimisation bayésienne par méthodes SMC

Romain Benassi Julien Bect Emmanuel Vazquez

SUPELEC

21 mars 2012Mascot Num 2012

Bruyères-le-Châtel, France

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 1 / 27

Page 2: Optimisation bayésienne par méthodes SMC

Introduction

Contexte

Optimisation globale ⇒ nombreuses applications dans l’industrie :Conception d’une voilure d’avion (Forrester et al. 2008)

Optimisation de la forme des conduits d’admission d’un moteur devoiture (Villemonteix et al. 2007)

etc.

Fonctions à optimiser coûteuses à évaluer (appel à des programmesinformatiques avec des durées d’exécution importantes)

Exemples d’optimisation de formes en CFD

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 2 / 27

Page 3: Optimisation bayésienne par méthodes SMC

Introduction

Optimisation bayésienne 1/2

Soitf : X ⊆ R

d → R,

avec X compact et d ∈ N

Objectif : trouver x∗ = argmaxx∈X f (x) et M = f (x∗)

f ne peut être évaluée qu’un nombre limité de fois N

évaluations non bruitéesgradient de f non disponible

Choix d’une approche bayésienne pour résoudre le problème⇒ f est vue comme une réalisation d’un processus aléatoire ξ

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 3 / 27

Page 4: Optimisation bayésienne par méthodes SMC

Introduction

Optimisation bayésienne 2/2

Après n évaluationsinformation disponible : Fn = (X1, ξ(X1), . . . , Xn, ξ(Xn))objectif : maximiser MN = ξ(X1) ∨ . . . ∨ ξ(XN)

Nouveau point d’évaluation Xn+1 choisi à l’aide d’un critèred’échantillonnage ρ̄n (construit à partir de Fn)

Xn+1 = argmaxx∈X

ρ̄n(x),

ρ̄n peut être évalué rapidement

Exemples de critères :probabilité d’amélioration (Kushner 1964)

amélioration moyenne (Expected Improvement) (Mockus et al. 1978)

entropie de l’optimiseur (IAGO) (Villemonteix et al. 2008)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 4 / 27

Page 5: Optimisation bayésienne par méthodes SMC

Introduction

Expected Improvement (EI)

Stratégie optimale sur un horizon d’un pas :

Xn+1 = argminx∈X

En [M − Mn+1 | Xn+1 = x ]

= argmaxx∈X

En

[

(ξ(Xn+1) − Mn)+ | Xn+1 = x]

︸ ︷︷ ︸

Expected Improvement (EI)

,

avec En l’espérance conditionnelle relative à Fn

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 5 / 27

Page 6: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 1

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−4

−3

−2

−1

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 7: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 2

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−6

−4

−2

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 8: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 3

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

3

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 9: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 4

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−3

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 10: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 5

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 11: Optimisation bayésienne par méthodes SMC

Introduction

Exemple : itération 6

−1 −0.5 0 0.5 1−3

−2

−1

0

1

2

−1 −0.5 0 0.5 1

−40

−20

0

log

10ρ

n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 6 / 27

Page 12: Optimisation bayésienne par méthodes SMC

Introduction

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 7 / 27

Page 13: Optimisation bayésienne par méthodes SMC

Approche plug-in

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 8 / 27

Page 14: Optimisation bayésienne par méthodes SMC

Approche plug-in

Problème : Comment choisir ξ ?

⇒ processus ξ choisi dans une classe de processus gaussiens paramétréspar θ ∈ Θ (p.ex. processus avec moyenne constante mais inconnue etcovariance exponentielle avec portée inconnue)

Approche plug-in

θ est estimé par maximum de vraisemblance

EI plug-in :

ρn(x ; θ̃) = En

((

ξ(

x ; θ̃)

− Mn

)

+

)

,

avec θ̃ estimé par MV

Avantage : existence d’une expression analytique de l’EIpour ξ gaussien

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 9 / 27

Page 15: Optimisation bayésienne par méthodes SMC

Approche plug-in

EI et processus gaussiens

Si ξ est gaussien (θ fixé) :

ρn(x ; θ) = En

(

(ξ (x) − Mn)+ | θ | θ)

= sn(x) [uΦ(u) + Φ′(u)]

avecu =

(

ξ̂n − Mn

)

/sn(x)

ξ̂n(x) = En [ξ(x ; θ)] (prédicteur par krigeage)sn(x) écart type a posteriori de ξ̂n(x) − ξ(x ; θ)Φ fonction de répartition de la loi normale centrée réduite

Il est facile de calculer ρn !

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 10 / 27

Page 16: Optimisation bayésienne par méthodes SMC

Approche plug-in

Problème avec l’approche plug-in

Fonctions trompeuses

Le terme fonctions trompeuses caractérise une fonction pour laquelleun design initial mal choisi peut conduire à une très mauvaiseestimation des paramètres du processus par MVL’utilisation d’une approche plug-in conduit parfois à sous-estimerlargement l’erreur de prédiction :

⇒ problème pour l’optimisation par EI

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 11 / 27

Page 17: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 18: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 19: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 20: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 21: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 22: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 23: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 24: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 25: Optimisation bayésienne par méthodes SMC

Approche plug-in

Exemple : Fonction trompeuse

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 12 / 27

Page 26: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 13 / 27

Page 27: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

EI complètement bayésien

Utilisation d’un critère EI complètement bayésien (Williams et al. 2003,

Osborne et al. 2009, . . .)

⇒ choix d’un a priori sur θ

Critère d’échantillonnage EI complètement bayésien :

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ) ,

où πn est la loi a posteriori de θ, et

ρn(x ; θ) := En((ξ(Xn+1) − Mn)+ | Xn+1 = x ; θ),

Approche plus robuste qu’une approche plug-in (Benassi et al. 2011)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 14 / 27

Page 28: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 1

−1 −0.5 0 0.5 1−1

−0.5

0

0.5

1

−1 −0.5 0 0.5 1−2.8−2.6−2.4−2.2

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−0.6−0.4−0.2

0

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 29: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 2

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−6−4−2

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1

−0.8

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 30: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 3

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−20

−10

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1.8−1.6−1.4−1.2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 31: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 4

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−1

−0.5

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 32: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 5

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−1.4−1.2

−1−0.8

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 33: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 6

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−1.6−1.4−1.2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 34: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 7

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1−2

−1.5

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 35: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Exemple : itération 8

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−40

−20

0

log

ρn(x)

−1 −0.5 0 0.5 1−1.5

−1

−0.5

0

0.5

1

1.5

−1 −0.5 0 0.5 1

−2.5

−2

log

ρ̄n(x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 15 / 27

Page 36: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Page 37: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Page 38: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Limites de l’approche complètement bayésienne

À chaque étape, on choisit une nouvelle évaluation

Xn+1 = argmaxx∈X ρ̄n :=

θ∈Θρn(x ; θ) dπn(θ)

Questions1 Comment calculer l’intégrale apparaissant dans ρ̄n ?2 Comment maximiser ρ̄n ?

Nous proposons un nouvel algorithme apportant une réponse à ces deuxquestions, de façon simultanée, à l’aide d’une approche SMC (Sequential

Monte Carlo) originale

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 16 / 27

Page 39: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Principe de base de notre algorithme (Benassi et al. 2012)

Idée 1 (voir, p. ex., Gramacy et al. 2011)

Un échantillon pondéré Tn = {(θn,i , wn,i) ∈ Θ × R, 1 ≤ i ≤ I}, distribuéselon πn, est utilisé pour approcher ρ̄n :

I∑

i=1

wn,i ρn(x ; θn,i) →I ρ̄n(x)

Idée 2

À chaque θn,i est associé un (petit) nombre de points candidats{xn,i ,j , 1 ≤ j ≤ J} tels que, pour une valeur de i particulière, les xn,i ,j

soient « bien réparties » (les zones où ρn est grand)

Nous considérons un ensemble pondéré Gn de couples (θ, x)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 17 / 27

Page 40: Optimisation bayésienne par méthodes SMC

Approche complètement bayésienne

Description de l’algorithme

À l’étape n,

Choix de Xn+1 et évaluation deξ(Xn+1)

Les θs sont « déplacés »

Génération des xs à partir d’uneloi instrumentale qn

Initialisation

Tn0 , qn0

Démarginalisation

Gn

Évaluation

θ

Repondération/

Rééchantillonnage/

Déplacement

Tn+1

x

Construction

deqn+1

qn+1

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 18 / 27

Page 41: Optimisation bayésienne par méthodes SMC

Expériences numériques

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 19 / 27

Page 42: Optimisation bayésienne par méthodes SMC

Expériences numériques

Choix des a priori

ξ est choisi gaussien avec :une moyenne constante mais inconnueune covariance de Matérn anisotrope de paramètres(σ2, ν, ρ1, ρ2, . . . , ρd)

Approche complètement bayésienne ⇒ un a priori doit être affecté àtous les paramètres inconnus

une loi impropre uniforme sur R est associée à la moyennela valeur de régularité ν est fixée à 5/2un a priori de Jeffreys est utilisé pour σ2

des a priori lognormaux indépendants sont affectés aux portées ρi

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 20 / 27

Page 43: Optimisation bayésienne par méthodes SMC

Expériences numériques

La fonction test

Fonction Branin (optimisation en dimension deux)

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 21 / 27

Page 44: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 1

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

0.5

1

2

3

4

5

6

7x 10

−9

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 45: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 2

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

2

4

6

8

x 10−11

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 46: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 3

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.5 −2 −1.5 −1 −0.5

−2

−1.5

−1

−0.5

0

2

4

6

8

10

12

14

16x 10

−13

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 47: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 5

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.5 −2 −1.5 −1 −0.5

−2.5

−2

−1.5

−1

0.5

1

1.5

2

2.5x 10

−15

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 48: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 9

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1

−2

−1.5

−1

−0.5

1

2

3

4

5

6

7x 10

−23

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 49: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 13

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2 −1.5 −1

−2.5

−2

−1.5

−1

0.5

1

1.5

2

2.5x 10

−30

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 50: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 17

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.2 −2 −1.8 −1.6 −1.4 −1.2

−3

−2.5

−2

−1.5

1

2

3

4

5x 10

−36

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 51: Optimisation bayésienne par méthodes SMC

Expériences numériques

Simulations : itération 21

Fonction Branin

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

plan d’expérience initial de4 points

nombre de θ : 100

100 x pour chaque θ

répartition des θs et des xs

−2.4 −2.2 −2 −1.8 −1.6

−3

−2.8

−2.6

−2.4

−2.2

2

4

6

8

x 10−40

ρ1

ρ2

−5 0 5 100

5

10

15

x1

x2

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 22 / 27

Page 52: Optimisation bayésienne par méthodes SMC

Expériences numériques

Comparaison 1/2

Comparaison entre approche bayésienne et approche plug-in

Approche bayésienne

I = 100 valeurs considérées pour les θ

J = 100 valeurs de x pour chaque valeur de θ

design initial de 4 points (deux fois la dimension)

Approche plug-in

θ estimé à chaque itération par MV

recherche exhaustive sur LHS fixé pour obtenir Xn+1

LHS de taille I × J

design initial de 20 points (dix fois la dimension)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 23 / 27

Page 53: Optimisation bayésienne par méthodes SMC

Expériences numériques

Comparaison 2/2

−5 0 5 100

5

10

15

−300

−250

−200

−150

−100

−50

x1

x2

Fonction Branin

0 20 40 60

−6

−4

−2

0

nombre d’évaluations de la fonction

log 1

0(m

axf

−M

n) EGO

EI+SMC

Comparaison de l’erreur moyenneau maximum (moyenne sur

100 expériences)

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 24 / 27

Page 54: Optimisation bayésienne par méthodes SMC

Conclusions

1 Introduction

2 Approche plug-in

3 Approche complètement bayésienne

4 Expériences numériques

5 Conclusions

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 25 / 27

Page 55: Optimisation bayésienne par méthodes SMC

Conclusions

Conclusions

Resultats

Notre nouvel algorithme complètement bayésien calcule efficacementle critère EI

Le choix, à chaque nouvelle itération, d’un ensemble (petit mais bienchoisi) de points candidats permet une maximisation efficace ducritère

Travail en cours

Tests en dimensions supérieures (bons résultats pour les dimensionsde 1 à 6)

Applications à des problèmes d’optimisation dans le domaine de laconception de systèmes électroniques

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 26 / 27

Page 56: Optimisation bayésienne par méthodes SMC

Conclusions

References

This talk is based on the following two papers :

Romain Benassi, Julien Bect, Emmanuel Vazquez, Bayesian optimization using

sequential Monte Carlo, Learning and Intelligent OptimizatioN (LION 6), Paris,

France, Jan 16-20 [clickme]

Romain Benassi, Julien Bect, Emmanuel Vazquez, Robust Gaussian Process-Based

Global Optimization Using a Fully Bayesian Expected Improvement Criterion,

Learning and Intelligent OptimizatioN (LION 6). Selected Papers. , Lecture Notes

in Computer Science, vol. 6683. 2011. [clickme]

Benassi, Bect, Vazquez (SUPELEC) Optimisation bayésienne par SMC 21 mars 2012 27 / 27