Top Banner
Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion 3) Convergence 4) Le théorème de Hammersley-Clifford 5) Modèles hiérarchiques 6) Augmentation de données 7) Algorithme MCMC hybride 8) Dangers – p. 1/30
41

Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Sep 10, 2018

Download

Documents

hahuong
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Cours 3 : L’échantillonneur de Gibbs

1) Principes généraux

2) Complétion

3) Convergence

4) Le théorème de Hammersley-Clifford

5) Modèles hiérarchiques

6) Augmentation de données

7) Algorithme MCMC hybride

8) Dangers

– p. 1/30

Page 2: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Principes généraux

Pour simuler suivant une loi f(θ) avec θ = (θ1, ..., θp), on peututiliser l’idée suivante

Initialisation : générer un vecteur θ = (θ1, ..., θp) suivantune loi de proposition initiale π0

Simuler suivant les lois conditionnelles

Θi|θ1, θ2, . . . , θi−1, θi+1, . . . , θp

∼ fi(θi|θ1, θ2, . . . , θi−1, θi+1, . . . , θp)

for i = 1, 2, . . . , p.

– p. 2/30

Page 3: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

L’échantillonneur de Gibbs

Étant donné θ(t) =(θ(t)1 , ..., θ

(t)p

),

1. Générer θ(t+1)1 ∼ f1(θ1|θ

(t)2 , ..., θ

(t)p ),

2. Générer θ(t+1)2 ∼ f2(θ2|θ

(t+1)1 , θ

(t)3 , ..., θ

(t)p ),

. . .

p. Générer θ(t+1)p ∼ fp(θp|θ

(t+1)1 , θ

(t+1)2 , ..., θ

(t+1)p−1 ),

Seules les lois conditionnelles f1, . . . , fp sont utilisées pourla simulation. Donc, même pour un problème de grandedimension, toutes les simulations sont univariées !

– p. 3/30

Page 4: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Propriétés

Taux d’acceptation égal à 1

Choix de la loi de proposition imposé par la méthode

Nécessite de connaître les lois conditionnelles de f

Ne peut s’appliquer si le vecteur paramètre à simuler estde dimension variable

Algorithme multi-dimensionnel par construction

– p. 4/30

Page 5: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Cas bidimensionnel

Pour simuler suivant

(X,Y ) ∼ f(x, y)

l’échantillonneur de Gibbs se réduit à

Simuler x0 et pour t = 1, 2, ..., générer (xt, yt) comme suit

1. yt ∼ fy|x(·|xt−1),

2. xt ∼ fx|y(·|yt),

où fy|x et fx|y sont les lois conditionnelles du couple (X,Y ).

Remarque : (xt)t, (yt)t et (xt, yt)t sont des chaînes deMarkov.

– p. 5/30

Page 6: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Cas Gaussien : Xi ∼ N (m, σ2)

Vraisemblance

f(x|m,σ2) ∝(σ2)−n/2

exp

(−

1

2σ2

n∑

i=1

(xi − m)2

)

Lois a priori

Moyenne

m ∼ N(m0, σ

20

)

Variance

σ2 ∼ IG (α, β)

– p. 6/30

Page 7: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Lois conditionnelles

moyenne

m|σ2,x ∼ N(M, Σ2

)

avec

M =nσ2

0

nσ20 + σ2

(1

n

n∑

i=1

xi

)+

(σ2

σ2 + nσ20

)m0 et Σ2 =

σ2σ20

σ2 + nσ20

variance

σ2|m, x ∼ IG

(n

2+ α,

1

2

n∑

i=1

(xi − m)2 + β

)

Donc, on peut simuler des couples (m,σ2) avecl’échantillonneur de Gibbs

– p. 7/30

Page 8: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1

, 2, 3, 4, 5, 10, 25, 50, 100, 500

Page 9: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2

, 3, 4, 5, 10, 25, 50, 100, 500

Page 10: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3

, 4, 5, 10, 25, 50, 100, 500

Page 11: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4

, 5, 10, 25, 50, 100, 500

Page 12: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5

, 10, 25, 50, 100, 500

Page 13: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5, 10

, 25, 50, 100, 500

Page 14: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5, 10, 25

, 50, 100, 500

Page 15: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5, 10, 25, 50

, 100, 500

Page 16: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5, 10, 25, 50, 100

, 500

Page 17: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Monte Carlo Statistical Methods

The Gibbs Sampler

General Principles

Example of results with n = 10 observations from theN(0, 1) distribution

Number of Iterations 1, 2, 3, 4, 5, 10, 25, 50, 100, 500

Page 18: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

A Markov Chain Monte Carlo Primer

MCMC Basics

The Gibbs Sampler

Example of Results with, Left n = 10 Observations; Right,n = 100 Observations from the N(0, 1) Distribution

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 10

1

2

3

4

5

6

7

8

µ

σ2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 10

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

µ

σ2

Page 19: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Complétion

Définition : la densité g est une complétion de f si∫

Z

g(θ,η)dη = f(θ),

i.e. si f est une loi marginale de g.

Intérêt : les lois conditionnelles de g sont parfois plussimples à simuler que celles de f (e.g. analyseBayésienne hiérarchique).

Notations : pour p > 1, soit Y = (θ,η) de densitég(y) = g(y1, ..., yp) et de lois conditionnelles

Yi|y1, ..., yi−1, yi+1, ..., yp ∼ gi(yi|y1, ..., yi−1, yi+1, ..., yp)

– p. 8/30

Page 20: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Echantillonneur de Gibbs après complétion

Étant donné y(t) =(y

(t)1 , ..., y

(t)p

),

1. Générer y(t+1)1 ∼ g1(y1|y

(t)2 , ..., y

(t)p ),

2. Générer y(t+1)2 ∼ g2(y2|y

(t+1)1 , y

(t)3 , ..., y

(t)p ),

. . .

p. Générer y(t+1)p ∼ gp(yp|y

(t+1)1 , y

(t+1)2 , ..., y

(t+1)p−1 ),

– p. 9/30

Page 21: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Exemple : loi Cauchy-Normale (1)

Posterior

f(θ|θ0) ∝e−θ2/2

[1 + (θ − θ0)2]ν

ComplétionOn a

f(θ|θ0) ∝

∫ ∞

0

e−θ2/2 e−[1+(θ−θ0)2] η/2 ην−1 dη

d’où

g(θ, η) ∝ e−θ2/2 e−[1+(θ−θ0)2] η/2 ην−1

– p. 10/30

Page 22: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Exemple : loi Cauchy-Normale (2)

Lois conditionnelles

g1(η|θ) = Ga

(ν,

1 + (θ − θ0)2

2

),

g2(θ|η) = N

(θ0η

1 + η,

1

1 + η

).

Le paramètre η n’a pas d’intérêt physique et sertuniquement à simplifier la simulation d’un échantillon θ(t).

– p. 11/30

Page 23: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Condition de positivité

Positivité

g(i)(yi) > 0, i = 1, · · · , p

où g(i) est la loi marginale de Yi (ou support de la loi cibleg égal au produit cartésien des supports des g(i))

Pour montrer la convergence de l’échantillonneur deGibbs, la loi cible doit vérifier la condition de positivité.

Contre-exemple

g(y1, y2) =1

2π[Iǫ(y1, y2) + Iǫ′(y1, y2)] ,

où ǫ et ǫ′ sont deux disques de rayons 1 centrés sur (1, 1)

et (−1,−1).– p. 12/30

Page 24: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Illustration de la non-positivité

Initialisation Aléatoire

-1 0 1 2 3 4

-1

01

23

4

µ1

µ2

– p. 13/30

Page 25: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Illustration de la non-positivité

Gibbs coincé autour du mauvais mode

-1 0 1 2 3

-10

12

3

µ1

µ2

– p. 14/30

Page 26: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Convergence de l’échantillonneur de Gibbs

Si la condition de positivité est vérifiée et si le noyau detransition est absolument continu par rapport à g, on a

ErgodicitéSi∫|h(y)|g(y)dy < ∞, alors

limT→∞

1

T

T∑

t=1

h(y(t)) =

∫h(y)g(y)dy

Convergence en variation totale

limn→∞

∥∥∥∥∫

Kn(y, ·)µ(dy) − g

∥∥∥∥TV

= 0

pour toute loi initiale µ.– p. 15/30

Page 27: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Remarques

L’échantillonneur de Gibbs est la composition de p

algorithmes de Metropolis-Hastings avec des probabilitésd’acceptation uniformément égales à 1.

Échantillonneur de Gibbs à balayage aléatoire

– p. 16/30

Page 28: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Le théorème de Hammersley-Clifford

Une loi jointe est caractérisée par l’ensemble de ses loisconditionnelles.

Dimension 2

Si la densité jointe g(y1, y2) a des lois conditionnellesnotées g1(y1|y2) et g2(y2|y1), alors (Hammersley andClifford, 1970)

g(y1, y2) =g2(y2|y1)∫

g2(v|y1)/g1(y1|v) dv.

– p. 17/30

Page 29: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Généralisation

Sous l’hypothèse de positivité, une loi jointe g peuts’écrire

g(y1, . . . , yp) ∝

p∏

j=1

gℓj(yℓj

|yℓ1 , . . . , yℓj−1, y′

ℓj+1, . . . , y′

ℓp)

gℓj(y′

ℓj|yℓ1 , . . . , yℓj−1

, y′ℓj+1

, . . . , y′ℓp

)

pour toute permutation l définie sur {1, ..., p} et tout y′ ∈ Y.

– p. 18/30

Page 30: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Modèles hiérarchiques

L’échantillonneur de Gibbs est particulièrement bien adaptéaux modèles hiérarchiques :

Les paramètres inconnus sont munis de lois a priori ainsique les hyperparamètres associés

En général, on introduit des lois non informatives audernier niveau de la hiérarchie

– p. 19/30

Page 31: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Exemple

Données Poissonniennes

Xi ∼ P (λ1) pour i = 1, . . . , l1,

Xi ∼ P (λ2) pour i = l1 + 1, . . . , n,

avec l1 connu.

Lois a priori sur les paramètres

λ1 ∼ Ga (α, β) , λ2 ∼ Ga (α, β) , α = 2.

Loi a priori sur les hyperparamètres

f(β) =1

βIR+(β)

– p. 20/30

Page 32: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Loi jointe

f (x,λ, β) ∝1

β

l1∏

i=1

[λxi

1

xi!e−λ1

] n∏

i=l1+1

[λxi

2

xi!e−λ2

] 2∏

i=1

βα

Γ (α)λα−1

i e−βλi

Loi conditionnellespour les paramètres λi

λ1|β,x ∼ Ga

(l1∑

i=1

xi + α, β + l1

)

λ2|β,x ∼ Ga

(n∑

i=l1+1

xi + α, β + n − l1

),

pour β

β|x,λ ∼ Ga (2α, λ1 + λ2)Matlab : simu-Poisson

– p. 21/30

Page 33: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Données Poissonniennes cachées

Observations 0 1 2 3 4 ou plus

Nombre 139 128 55 25 13

Données : observations du nombre de données égales à0, 1, 2, 3 et du nombre de données ≥ 4.

Vraisemblance

ℓ(x1, . . . , x5; λ) ∝ e−347λλ128+55×2+25×3

(1 − e−λ

3∑

i=0

λi

i!

)13

,

Idée : on munit λ d’une loi a priori π(λ) = 1/λ et oncomplète ce paramètre par y = (y1, ..., y13).

– p. 22/30

Page 34: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Loi a posteriori

ℓ(λ, y1, ..., y13|x1, . . . , x5) ∝ e−347λλ128+55×2+25×3

(13∏

i=1

λyie−λ

)1

λ,

Lois conditionnelles

yi|λ ∼ P(λ)Iyi≥4, i = 1, ..., 13

λ|y ∼ Ga(313 +

∑13i=1 yi, 360

)

Estimateur de λ

λ =1

360T

T∑

t=1

(313 +

13∑

i=1

y(t)i

)

Rao-Blackwellization

– p. 23/30

Page 35: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Conditionnement - Rao-Blackwellization

Espérances conditionnelles

E[h(Λ)] = E [E[h(Λ)|Y ]]

EstimateursIci on sait calculer g(Y ) = E[h(Λ)|Y ]. On en déduit deuxestimateurs

I1 =1

T

T∑

t=1

h(Λt)

I2 =1

T

T∑

t=1

g(Y t) =1

T

T∑

t=1

E[h(Λ)|Y t]

Réduction de variance– p. 24/30

Page 36: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Résultats de simulation

0 100 200 300 400 500

1.02

11.

022

1.02

31.

024

1.02

5

0.9 1.0 1.1 1.2

010

2030

40

lambda

– p. 25/30

Page 37: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Algorithme MCMC hybride

Motivations

La convergence de l’échantillonneur de Gibbs peutêtre lente car on simule une seule composante àchaque itération

Pas de problème avec la loi de proposition commeavec l’algorithme de Metropolis-Hastings

Certaines lois conditionnelles peuvent êtreimpossibles à simuler

Définition : un algorithme MCMC hybride est uneméthode MCMC utilisant simultanément des étapesd’échantillonneur de Gibbs et des étapes deMetropolis-Hastings

– p. 26/30

Page 38: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Algorithme MCMC hybride

Remplacer chaque étape i où une simulation suivant la loiconditionnelle gi(yi|)yj, j 6= i est impossible par

1. Simuler yi ∼ qi(yi|y(t+1)1 , ..., y

(t)i , y

(t)i+1, ..., y

(t)p ),

2. Prendre

y(t+1)i =

yi avec probabilité ρ

y(t)i avec probabilité 1 − ρ

ρ = 1∧

8<: gi

�eyi|y(t+1)1 , ..., y

(t)i

, y(t)i+1, ..., y

(t)p

�gi

�y(t)i

|y(t+1)1 , ..., y

(t)i

, y(t)i+1, ..., y

(t)p

� qi

�y(t)i

|y(t+1)1 , ..., eyi, y

(t)i+1, ..., y

(t)p

qi

�eyi|y(t)1 , ..., y

(t)i

, y(t)i+1, ..., y

(t)p

� 9=;

Remarque : l’étape de Metropolis-Hastings n’est utiliséequ’une fois (et la convergence est assurée).Matlab : metropolis_within_Gibbs

– p. 27/30

Page 39: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Dangers

Modèle à effets aléatoires

Yij = µ + αi + εij, i = 1, . . . , I, j = 1, . . . , J,

avec

αi ∼ N (0, σ2) et εij ∼ N (0, τ 2),

Lois a prioriLa loi a priori de Jeffreys (impropre) pour les paramètresµ, σ et τ est

π(µ, σ2, τ 2) =1

σ2τ 2.

– p. 28/30

Page 40: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Lois conditionnelles

Les lois conditionnelles sont définies par

αi|y, µ, σ2, τ 2 ∼ N

(J(yi − µ)

J + τ 2σ−2, (Jτ−2 + σ−2)−1

),

µ|α, y, σ2, τ 2 ∼ N (y − α, τ 2/JI) ,

σ2|α, µ, y, τ 2 ∼ IG

(I

2,1

2

i

α2i

),

τ 2|α, µ, y, σ2 ∼ IG

(IJ

2,1

2

i,j

(yij − αi − µ)2

),

et sont faciles à simuler. Mais la loi jointe n’existe pas !

– p. 29/30

Page 41: Cours 3 : L’échantillonneur de Gibbs - ENSEEIHTtourneret.perso.enseeiht.fr/Peyresq/cours3.pdf · Cours 3 : L’échantillonneur de Gibbs 1) Principes généraux 2) Complétion

Simulations

Évolution de µ(t) et histogramme pour 1000 itérations

-4 -3 -2 -1 0

05

1015

2025

30

(1000 iterations)

freq.

-8-6

-4-2

0ob

serv

ation

s

– p. 30/30