COMPRESSIVE
SENSING
Clement Artaud, Romain Chion,
Alexis Oizel et Baptiste Sinquin
Tuteurs : Julien HUILLERY et Laurent BA...
SOMMAIRE
INTRODUCTION AU
COMPRESSIVE SENSING
ALGORITHMES DE
RECONSTRUCTION
COMPARAISON ET
PERFORMANCES
PRESENTATION DE
L’I...
INTERET
Condition de Shannon (1948)
fe>2.fmax
Compressed sensing :
« Est-il possible de reconstruire en échantillonnant
av...
Acquisition de m échantillons, de manière irrégulière:
𝑌 = Φ𝑣
Problème mal posé : n inconnues, m équations avec m<<n
FORMA...
Rajout d’une contrainte : 𝑥 est parcimonieux
Projection de v dans une base de représentation, ex: Fourier
𝑣 = 𝜓𝑥
𝑌 = Φ𝜓𝑥 =...
FORMALISME : FOURIER
Représentation dans la base de Fourier 2D :
𝑋 𝑢, 𝑣 = 𝑥 𝑖, 𝑗 𝑒−2𝑖𝜋(
𝑖𝑢
𝑚
+
𝑗𝑣
𝑛
)
𝑛−1
𝑗=0
𝑚−1
𝑖=0
𝜓 =
...
PROBLEME
D’OPTIMISATION
min ||𝑥||0 𝑌 = 𝐴𝑥
 5 algorithmes implémentés
 Etude de l’influence des paramètres
 Utilisation ...
OPTIMISATION L1 CONVEXE
RECONSTRUCTION
COMPARAISON
8
Norme
L0
•Reconstruction de l’image et optimisation de sa parcimonie
...
CVX : SINUS 2D
RECONSTRUCTION
COMPARAISON
9
CVX : TWITTER
RECONSTRUCTION
COMPARAISON
10
OPTIMISATION DISJOINTE
 Principe :
 La matrice d’échantillonnage n’est pas carrée, elle a donc un noyau
non trivial
 Un...
OD : LOGO TWITTER A 20%
RECONSTRUCTION
COMPARAISON
12
RMSE
lambda
Pénalisation des valeurs importantes en valeur absolue
Valeurs faibles peu prises en compte dans la minimisation
Solution ...
CoSaMP
 Objectif : Réduireletempsd’exécutiondel’algorithme
 Principe :
 Approche par itérations successives
 Parcimoni...
 Reconstruction moins performante
 Exécution très rapide ( < 20s)
CoSaMP : TWITTER
ALPHA 60% S 15%
RECONSTRUCTION
COMPAR...
CoSaMP : CAS DEFAVORABLE
RECONSTRUCTION
COMPARAISON
16
Information rajoutée a priori sur la transformée de Fourier 𝑥 :
1. Parcimonie
2. Statistiques gaussiennes des coefficients...
COMPARAISON
DES
ALGORITHMES
Paramètres utilisés « optimaux »
Qualité de la reconstruction:
COMPARAISON
INTERFACE
18
Method...
LIVE SHOW
TESTONS AVEC VOUS L’APPLICATION EN DIRECT!
INTERFACE
CONCLUSION
19
PERSPECTIVES
FUTURES
 Introduction aux wavelet et d’autres bases de
projection
 Mise en place d’un CS pour des images en...
Prochain SlideShare
Chargement dans…5
×

Présentation Projet Compressive Sensing 2014

825 vues

Publié le

Présentation pour le projet d'option Bio-ingénierie sur le Compressive Sensing.

- Introduction au compressive sensing
- Implémentation d'algorithmes
- Etude de l'influence des paramètres sur les différentes méthodes d'optimisation
- Présentation de l'interface

Publié dans : Technologie
0 commentaire
2 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
825
Sur SlideShare
0
Issues des intégrations
0
Intégrations
17
Actions
Partages
0
Téléchargements
41
Commentaires
0
J’aime
2
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Présentation Projet Compressive Sensing 2014

  1. 1. COMPRESSIVE SENSING Clement Artaud, Romain Chion, Alexis Oizel et Baptiste Sinquin Tuteurs : Julien HUILLERY et Laurent BAKO
  2. 2. SOMMAIRE INTRODUCTION AU COMPRESSIVE SENSING ALGORITHMES DE RECONSTRUCTION COMPARAISON ET PERFORMANCES PRESENTATION DE L’INTERFACE CONCLUSION
  3. 3. INTERET Condition de Shannon (1948) fe>2.fmax Compressed sensing : « Est-il possible de reconstruire en échantillonnant avec fe < fmax ? » Applications innombrables : imagerie ultrason, géologie, astronomie… 3 INTRODUCTION RECONSTRUCTION 3
  4. 4. Acquisition de m échantillons, de manière irrégulière: 𝑌 = Φ𝑣 Problème mal posé : n inconnues, m équations avec m<<n FORMALISME : ECHANTILLONNAGE INTRODUCTION RECONSTRUCTION 4
  5. 5. Rajout d’une contrainte : 𝑥 est parcimonieux Projection de v dans une base de représentation, ex: Fourier 𝑣 = 𝜓𝑥 𝑌 = Φ𝜓𝑥 = 𝐴𝑥 Problème à résoudre : min ||𝑥||0 𝑌 = 𝐴𝑥 FORMALISME : PARCIMONIE INTRODUCTION RECONSTRUCTION 5
  6. 6. FORMALISME : FOURIER Représentation dans la base de Fourier 2D : 𝑋 𝑢, 𝑣 = 𝑥 𝑖, 𝑗 𝑒−2𝑖𝜋( 𝑖𝑢 𝑚 + 𝑗𝑣 𝑛 ) 𝑛−1 𝑗=0 𝑚−1 𝑖=0 𝜓 = 𝐹𝑚 𝐹𝑚 ⋯ 𝐹𝑚 𝐹𝑚 𝑒 −2𝑖𝜋 1∗1 𝑛 𝐹𝑚 𝑒 −2𝑖𝜋 1∗2 𝑛 𝐹𝑚 ⋯ 𝑒 −2𝑖𝜋 1∗(𝑛−1) 𝑛 𝐹𝑚 𝑒 −2𝑖𝜋 2∗1 𝑛 𝐹𝑚 ⋱ ⋮ ⋮ 𝑒 −2𝑖𝜋 𝑎𝑏 𝑛 𝐹𝑚 ⋮ ⋱ 𝐹𝑚 𝑒 −2𝑖𝜋 𝑛−1 ∗1 𝑛 𝐹𝑚 ⋯ 𝑒 −2𝑖𝜋 𝑛−1 ∗(𝑛−1) 𝑛 𝐹𝑚 INTRODUCTION RECONSTRUCTION 6
  7. 7. PROBLEME D’OPTIMISATION min ||𝑥||0 𝑌 = 𝐴𝑥  5 algorithmes implémentés  Etude de l’influence des paramètres  Utilisation du RMSE comme critère de comparaison  Observation de la rapidité, du nombre de paramètres et de l’efficacité  Images traitées ici : INTRODUCTION RECONSTRUCTION 7
  8. 8. OPTIMISATION L1 CONVEXE RECONSTRUCTION COMPARAISON 8 Norme L0 •Reconstruction de l’image et optimisation de sa parcimonie Compromis entre moindres carrés et parcimonie RIP •La norme L0 n’est pas convexe RIP permet d’optimiser sur la norme L1 par équivalence ∃ 𝛿 | 1 − 𝛿 𝑥 2 2 ≤ 𝐴𝑥 2 2 ≤ (1 + 𝛿) 𝑥 2 2 Norme L1 •Onvadoncchercherunesolutiondelaforme 𝑚𝑖𝑛 𝑥 1 − 𝜆 𝐴𝑥 − 𝑦 2 + 𝜆 𝑥 1
  9. 9. CVX : SINUS 2D RECONSTRUCTION COMPARAISON 9
  10. 10. CVX : TWITTER RECONSTRUCTION COMPARAISON 10
  11. 11. OPTIMISATION DISJOINTE  Principe :  La matrice d’échantillonnage n’est pas carrée, elle a donc un noyau non trivial  Une fois une solution trouvée en moindre carrés, l’ajout d’un élément de ker(A) ne change pas la norme 2  On va donc chercher une solution de la forme 𝑥 = 𝑢 + 𝑣 𝑢 = 𝑝𝑖𝑛𝑣 𝐴 ∗ 𝑦 𝑣 ∈ ker(𝐴) | 𝑢 + 𝑣 1 𝑚𝑖𝑛𝑖𝑚𝑎𝑙𝑒RECONSTRUCTION COMPARAISON 11
  12. 12. OD : LOGO TWITTER A 20% RECONSTRUCTION COMPARAISON 12 RMSE lambda
  13. 13. Pénalisation des valeurs importantes en valeur absolue Valeurs faibles peu prises en compte dans la minimisation Solution : L1 pondérée Avec : 1 − 𝜆 ||𝑦 − 𝐴𝑥||2. +𝜆. | 𝑊𝑥 |1 (WP1) 𝑤𝑖+1 = 1 𝑥𝑖 + 𝜀 RECONSTRUCTION COMPARAISON 13 1 1.5 2 2.5 3 3.5 4 5 10 15 20 25 30 35 Itérations RMSE L1 pondérée L1 20% d’échantillons, 𝜆=0,8 DEMOCRATIE NON RESPECTEE
  14. 14. CoSaMP  Objectif : Réduireletempsd’exécutiondel’algorithme  Principe :  Approche par itérations successives  Parcimonie S fixée  Convergence vers un état stationnaire RECONSTRUCTION COMPARAISON 14 Sélection d’un support de travail parcimonieux Réduction moindre carré sur ce support Mise à 0 des autres coefficients Calcul du reste entre le signal calculé et les échantillons Intégration du reste pour affiner le calcul à chaque itération
  15. 15.  Reconstruction moins performante  Exécution très rapide ( < 20s) CoSaMP : TWITTER ALPHA 60% S 15% RECONSTRUCTION COMPARAISON 15
  16. 16. CoSaMP : CAS DEFAVORABLE RECONSTRUCTION COMPARAISON 16
  17. 17. Information rajoutée a priori sur la transformée de Fourier 𝑥 : 1. Parcimonie 2. Statistiques gaussiennes des coefficients non nuls de 𝑥 Image reconstruite 5 10 15 20 25 30 5 10 15 20 25 30 0.5 1 1.5 2 2.5 3 Image échantillonnée 5 10 15 20 25 30 5 10 15 20 25 30 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Image échantillonnée 5 10 15 20 25 30 5 10 15 20 25 30 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Image reconstruite 5 10 15 20 25 30 5 10 15 20 25 30 1 2 3 4 5 6 7 8 RECONSTRUCTION COMPARAISON 17 RECONSTRUCTION BAYESIENNE
  18. 18. COMPARAISON DES ALGORITHMES Paramètres utilisés « optimaux » Qualité de la reconstruction: COMPARAISON INTERFACE 18 Methode Twitter Sinus CVX 86s 157s CoSaMP 0,8s 5s Reweighted iterations*60 iterations*60 Bayes 74s 66s Mauvais Moyen Excellent
  19. 19. LIVE SHOW TESTONS AVEC VOUS L’APPLICATION EN DIRECT! INTERFACE CONCLUSION 19
  20. 20. PERSPECTIVES FUTURES  Introduction aux wavelet et d’autres bases de projection  Mise en place d’un CS pour des images en couleur  Etude de l’influence de la « taille » de l’image (fenêtrage)  Créer un catalogue de matrices de Fourier  Amélioration des algorithmes présentés MERCI DE VOTRE ATTENTION. CONCLUSION20

×