Présentation Projet Compressive Sensing 2014

Post on 22-Jun-2015

283 Views

Category:

Technology

5 Downloads

Preview:

Click to see full reader

DESCRIPTION

Présentation pour le projet d'option Bio-ingénierie sur le Compressive Sensing. - Introduction au compressive sensing - Implémentation d'algorithmes - Etude de l'influence des paramètres sur les différentes méthodes d'optimisation - Présentation de l'interface

Transcript

COMPRESSIVE SENSING

Clement Artaud, Romain Chion, Alexis Oizel et Baptiste Sinquin

Tuteurs : Julien HUILLERY et Laurent BAKO

SOMMAIRE

INTRODUCTION AU COMPRESSIVE SENSING

ALGORITHMES DE RECONSTRUCTION

COMPARAISON ET PERFORMANCES

PRESENTATION DE L’INTERFACE

CONCLUSION

INTERET

Condition de Shannon (1948)

fe>2.fmax

Compressed sensing :

« Est-il possible de reconstruire en échantillonnant

avec fe < fmax ? »

Applications innombrables :

imagerie ultrason, géologie, astronomie…

3

INTRODUCTION

RECONSTRUCTION

3

Acquisition de m échantillons, de manière irrégulière:

𝑌 = Φ𝑣

Problème mal posé : n inconnues, m équations avec m<<n

FORMALISME : ECHANTILLONNAGE

INTRODUCTION

RECONSTRUCTION

4

Rajout d’une contrainte : 𝑥 est parcimonieux

Projection de v dans une base de représentation, ex: Fourier

𝑣 = 𝜓𝑥 𝑌 = Φ𝜓𝑥 = 𝐴𝑥

Problème à résoudre : min ||𝑥||0

𝑌 = 𝐴𝑥

FORMALISME : PARCIMONIE

INTRODUCTION

RECONSTRUCTION

5

FORMALISME : FOURIER

Représentation dans la base de Fourier 2D :

𝑋 𝑢, 𝑣 = 𝑥 𝑖, 𝑗 𝑒−2𝑖𝜋(𝑖𝑢𝑚+𝑗𝑣𝑛 )

𝑛−1

𝑗=0

𝑚−1

𝑖=0

𝜓 =

𝐹𝑚 𝐹𝑚 ⋯ 𝐹𝑚

𝐹𝑚 𝑒−2𝑖𝜋

1∗1

𝑛 𝐹𝑚 𝑒−2𝑖𝜋

1∗2

𝑛 𝐹𝑚 ⋯ 𝑒−2𝑖𝜋

1∗(𝑛−1)

𝑛 𝐹𝑚

𝑒−2𝑖𝜋

2∗1

𝑛 𝐹𝑚 ⋱

⋮ ⋮ 𝑒−2𝑖𝜋

𝑎𝑏

𝑛 𝐹𝑚 ⋮

𝐹𝑚 𝑒−2𝑖𝜋

𝑛−1 ∗1

𝑛 𝐹𝑚 ⋯ 𝑒−2𝑖𝜋

𝑛−1 ∗(𝑛−1)

𝑛 𝐹𝑚

INTRODUCTION

RECONSTRUCTION

6

PROBLEME D’OPTIMISATION

min ||𝑥||0 𝑌 = 𝐴𝑥

5 algorithmes implémentés

Etude de l’influence des paramètres

Utilisation du RMSE comme critère de comparaison

Observation de la rapidité, du nombre de paramètres et de l’efficacité

Images traitées ici :

INTRODUCTION

RECONSTRUCTION

7

OPTIMISATION L1 CONVEXE

RECONSTRUCTION

COMPARAISON

8

Norme L0

•Reconstruction de l’image et optimisation de sa parcimonie Compromis entre moindres carrés et parcimonie

RIP •La norme L0 n’est pas convexe

RIP permet d’optimiser sur la norme L1 par équivalence ∃ 𝛿 | 1 − 𝛿 𝑥 2

2≤ 𝐴𝑥 2

2 ≤ (1 + 𝛿) 𝑥 2

2

Norme L1

•On va donc chercher une solution de la forme 𝑚𝑖𝑛𝑥 1 − 𝜆 𝐴𝑥 − 𝑦 2 + 𝜆 𝑥 1

CVX : SINUS 2D

RECONSTRUCTION

COMPARAISON

9

CVX : TWITTER

RECONSTRUCTION

COMPARAISON

10

OPTIMISATION DISJOINTE

Principe :

La matrice d’échantillonnage n’est pas carrée, elle a donc un noyau non trivial

Une fois une solution trouvée en moindre carrés, l’ajout d’un élément de ker(A) ne change pas la norme 2

On va donc chercher une solution de la forme

𝑥 = 𝑢 + 𝑣 𝑢 = 𝑝𝑖𝑛𝑣 𝐴 ∗ 𝑦 𝑣 ∈ ker (𝐴) | 𝑢 + 𝑣 1𝑚𝑖𝑛𝑖𝑚𝑎𝑙𝑒

RECONSTRUCTION

COMPARAISON

11

OD : LOGO TWITTER A 20%

RECONSTRUCTION

COMPARAISON

12

RMSE

lambda

Pénalisation des valeurs importantes en valeur absolue

Valeurs faibles peu prises en compte dans la minimisation

Solution : L1 pondérée

Avec :

1 − 𝜆 ||𝑦 − 𝐴𝑥||2. +𝜆. | 𝑊𝑥 |1 (WP1)

𝑤𝑖+1 =1

𝑥𝑖 + 휀

RECONSTRUCTION

COMPARAISON

13 1 1.5 2 2.5 3 3.5 45

10

15

20

25

30

35

Itérations

RM

SE

L1 pondérée

L1

20% d’échantillons, 𝜆=0,8

DEMOCRATIE NON RESPECTEE

CoSaMP

Objectif : Réduire le temps d’exécution de l’algorithme

Principe :

Approche par itérations successives

Parcimonie S fixée

Convergence vers un état stationnaire

RECONSTRUCTION

COMPARAISON

14

Sélection d’un support de

travail parcimonieux

Réduction moindre carré sur ce support

Mise à 0 des autres

coefficients

Calcul du reste entre le signal calculé et les échantillons

Intégration du reste pour affiner le

calcul

à chaque itération

Reconstruction moins performante

Exécution très rapide ( < 20s)

CoSaMP : TWITTER ALPHA 60% S 15%

RECONSTRUCTION

COMPARAISON

15

CoSaMP : CAS DEFAVORABLE

RECONSTRUCTION

COMPARAISON

16

Information rajoutée a priori sur la transformée de Fourier 𝑥 :

1. Parcimonie

2. Statistiques gaussiennes des coefficients non nuls de 𝑥

Image reconstruite

5 10 15 20 25 30

5

10

15

20

25

30

0.5

1

1.5

2

2.5

3

Image échantillonnée

5 10 15 20 25 30

5

10

15

20

25

30

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Image échantillonnée

5 10 15 20 25 30

5

10

15

20

25

30

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Image reconstruite

5 10 15 20 25 30

5

10

15

20

25

301

2

3

4

5

6

7

8

RECONSTRUCTION

COMPARAISON

17

RECONSTRUCTION BAYESIENNE

COMPARAISON DES

ALGORITHMES

Paramètres utilisés « optimaux »

Qualité de la reconstruction:

COMPARAISON

INTERFACE

18

Methode Twitter Sinus

CVX 86s 157s

CoSaMP 0,8s 5s

Reweighted iterations*60 iterations*60

Bayes 74s 66s

Mauvais

Moyen

Excellent

LIVE SHOW

TESTONS AVEC VOUS L’APPLICATION EN DIRECT!

INTERFACE

CONCLUSION

19

PERSPECTIVES FUTURES

Introduction aux wavelet et d’autres bases de projection

Mise en place d’un CS pour des images en couleur

Etude de l’influence de la « taille » de l’image (fenêtrage)

Créer un catalogue de matrices de Fourier

Amélioration des algorithmes présentés

MERCI DE VOTRE ATTENTION. CONCLUSION 20

top related