République Algérienne Démocratique Et Populaire Ministère De L'Enseignement Supérieur Et De La Recherche Scientifique Université Es-Sénia Oran - Faculté des Sciences Département Informatique MÉMOIRE Présenté pour l'obtention du diplôme de Magister Spécialité : Informatique Option : Ingénierie des Données et des Connaissances Titre : Segmentation d’images tomographiques par émission de positons Présenté par : Réda BENTATA Encadreur : Rachid NOURINE Soutenu le ......../....../2011 devant la commission de jury :
133
Embed
Université Es-Sénia Oran - Faculté des Sciences MÉMOIRERésumé En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil majeur en oncologie
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
République Algérienne Démocratique Et Populaire
Ministère De L'Enseignement Supérieur Et De La Recherche
Scientifique
Université Es-Sénia Oran - Faculté des Sciences
Département Informatique
MÉMOIRE Présenté pour l'obtention du diplôme de Magister
Spécialité : Informatique Option : Ingénierie des Données et des Connaissances
Titre :
Segmentation d’images tomographiques par émission de positons
Présenté par : Réda BENTATA
Encadreur : Rachid NOURINE
Soutenu le ......../....../2011 devant la commission de jury :
Résumé
En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil majeur en oncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux modalités habituelles (IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du corps plutôt que sur son anatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très avancé, voire avant même qu’elles n’aient de manifestation morphologique. Cependant, du fait de la nature fonctionnelle des images TEP, la localisation des structures anatomiques dans une telle image reste une tâche très difficile ; en effet, les images TEP ne fournissent qu’une très faible information anatomique. La segmentation d’images TEP requiert donc l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à ses connaissances à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’un volume coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps. Nous présentons dans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant à la fois, l’information fournie par le volume TEP à segmenter et des connaissances apriori sur le volume fournis sous forme d’Atlas Anatomique. Le principe de notre approche consiste à appliquer un recalage entre le volume TEP en entrée et l’atlas anatomique, déterminant ainsi, la transformation géométrique conduisant au meilleur alignement TEP/Atlas.
Mots clés : Segmentation, Recalage d’images, Atlas, Optimisation, Information Mutuelle, TEP.
Figure I.1 : Evolution de la pratique médicale……………………………………………………………………………………………………………………………….14
Figure I.2 : Illustration de la multimodalité pour la comprehension du cerveau ……………………………………………………………………………………………………………………………….15
Figure I.3 : Une des premières radiographies……………………………………………………………………………………………………………………………….17
Figure I.4 : Radiographie du Cavum et des Sinus Frontaux……………………………………………………………………………………………………………………………….18
Figure I.5 : Angiographie des mains……………………………………………………………………………………………………………………………….20
Figure V.1 : Etapes 1 et 2 de notre procédé.…………………………………………………………………………………………………………………………………………………………………110
Figure V.2 : Atlas Segmenté en Tissus…………………………………………………………………………………………………………………………………………………………………111
Figure V.3 : Atlas Segmenté en Lobes…………………………………………………………………………………………………………………………………………………………………111
Figure V.4 : Coupes 1,10,20,30,40,50 et 60 d’un volume TEP…………………………………………………………………………………………………………………………………………………………………112
Figure V.5 : Représentation d’un volume…………………………………………………………………………………………………………………………………………………………………120
Figure V.6 : Première et dernière coupe de chaque vue dans le volume.…………………………………………………………………………………………………………………………………………………………………120
Figure V.7 : Chargement d’un fichier IMG…………………………………………………………………………………………………………………………………………………………………121
Figure V.8 : Fonction de correspondance entre intensité et pseudocouleurs…………………………………………………………………………………………………………………………………………………………………123
Figure V.9 : Coupe axiale d’IRM niveau de gris (a) et pseudocouleurs (b)…………………………………………………………………………………………………………………………………………………………………124
Figure V.10 : Résultat de la segmentation en tissus (a) et en lobes (b)…………………………………………………………………………………………………………………………………………………………………125
Figure V.11 : Quantification des tissus cérébraux…………………………………………………………………………………………………………………………………………………………………126
Figure V.12 : TEP / Atlas Avant et Après Recalage…………………………………………………………………………………………………………………………………………………………………127
Figure V.14 : Localisation de l’hippocampe par triangulation.…………………………………………………………………………………………………………………………………………………………………127
Figure V.15 : Extraction du cerveau…………………………………………………………………………………………………………………………………………………………………128
Figure V.16 : Extraction d’une RdI et superposition sur l’atlas recalé…………………………………………………………………………………………………………………………………………………………………130
Figure V.17 : Localisation d’une RdI…………………………………………………………………………………………………………………………………………………………………130
Figure V.18 : Résultats de la segmentation selon les trois métrique L2, CC et l’IM…………………………………………………………………………………………………………………………………………………………………131
Figure V.19 : Evaluation de l’indice Tc selon les trois métriques…………………………………………………………………………………………………………………………………………………………………132
Introduction
I. Introduction……………………………………………………………………………………………………………………………….14
II. Modalités d'acquisition d'images Médicales……………………………………………………………………………………………..16II.1. Les Rayon X………………………………………………………………………………………………………………………………………………………………………………….16
II.1.1. La Radiographie Conventionnelle………………………………………………………………………………………………………………………………………………………………………………….17II.1.2. La Tomodensitométrie………………………………………………………………………………………………………………………………………………………………………………….19II.1.3. L'Angiographie……………………………………………………………………………………………………………………………….19
II.2. Les Images Ultrasonores : L'Echographie……………………………………………………………………………………………………………………………….20II.3. Les Image par Résonance Magnétique……………………………………………………………………………………………………………………………….21II.4. L'Imagerie Nucléaire……………………………………………………………………………………………………………………………….23
II.4.1. La Scintigraphie……………………………………………………………………………………………………………………………….23II.4.1.1. La Scintigraphie Thiyroïdienne……………………………………………………………………………………………………………………………….24II.4.1.2. La Scintigraphie Osseuse……………………………………………………………………………………………………………………………….24II.4.1.3. La Scintigraphie Cardiaque……………………………………………………………………………………………………………………………….25
II.4.2. La Tomographie par Emission de Positons……………………………………………………………………………………………………………………………….25
III. Conclusion……………………………………………………………………………………………………………………………….27
I. Introduction……………………………………………………………………………………………………………………………….29
II. L'image Numérique……………………………………………………………………………………………………………………………….29II.1. Définition……………………………………………………………………………………………………………………………….29II.2. Représentation d'une image numérique……………………………………………………………………………………………………………………………….30II.3. Notion d'adjacence……………………………………………………………………………………………………………………………….31
III. L'espace de couleur……………………………………………………………………………………………………………………………….35II.1. Le système RGB……………………………………………………………………………………………………………………………….35II.2. Le modèle CMJN……………………………………………………………………………………………………………………………….36II.3. Le modèle Niveaux de gris……………………………………………………………………………………………………………………………….36II.4. Les pseudocouleurs……………………………………………………………………………………………………………………………….37
IV. La résolution d'une image……………………………………………………………………………………………………………………………….38
V. Prétraitement d'image……………………………………………………………………………………………………………………………….41V.1. Les opérations ponctuelles……………………………………………………………………………………………………………………………….42
V.2. Les opérations Globales……………………………………………………………………………………………………………………………….44V.2.1. Normalisation d'histogramme……………………………………………………………………………………………………………………………….45V.2.2. Egalisation d'histogramme……………………………………………………………………………………………………………………………….45
V.3. Les opérations locales……………………………………………………………………………………………………………………………….46V.3.1. Filtrage Linéaire……………………………………………………………………………………………………………………………….46
V.3.1.1. Filtre de Gauss……………………………………………………………………………………………………………………………….47V.3.1.2. Filtre de Sobel……………………………………………………………………………………………………………………………….48
V.3.2. Filtrage Non-Linéaire……………………………………………………………………………………………………………………………….49V.3.2.1. Le Filtre Median……………………………………………………………………………………………………………………………….49V.3.2.2. Le Filtre de Diffusion……………………………………………………………………………………………………………………………….50
VI. Conclusion……………………………………………………………………………………………………………………………….51
I. Introduction……………………………………………………………………………………………………………………………….54
II. La segmentation d'images……………………………………………………………………………………………………………………………….55II.1. Définition……………………………………………………………………………………………………………………………….56II.2 Objectifs de la segmentation……………………………………………………………………………………………………………………………….57II.3. La dimensionnalité……………………………………………………………………………………………………………………………….58II.4. Interaction et Validation……………………………………………………………………………………………………………………………….58
III. Approches de Segmentation……………………………………………………………………………………………………………………………….59III.1. Pixel……………………………………………………………………………………………………………………………….60III.2. Région……………………………………………………………………………………………………………………………….61
III.2.1. Décomposition / Fusion (Split and Merge)……………………………………………………………………………………………………………………………….62III.2.2. Croissance de Région (Region Growing)……………………………………………………………………………………………………………………………….65III.2.3. Ligne de partage des Eaux……………………………………………………………………………………………………………………………….65
III.3.1.1. Le Gradient……………………………………………………………………………………………………………………………….68III.3.1.2. Le Laplacien……………………………………………………………………………………………………………………………….71
III.3.2. Le Gradient Morphologique……………………………………………………………………………………………………………………………….72III.3.3. Les Contours Actifs……………………………………………………………………………………………………………………………….75
III.3.3.1. Energie Interne……………………………………………………………………………………………………………………………….77III.3.3.2. Energie Externe……………………………………………………………………………………………………………………………….78III.3.3.3. Energie de Contexte……………………………………………………………………………………………………………………………….78
IV. Conclusion……………………………………………………………………………………………………………………………….79
CHAPITRE III La Segmentation d'images Médicales
I. Introduction……………………………………………………………………………………………………………………………….81
II. Problématique……………………………………………………………………………………………………………………………….82II.1. Formalisation du Problème……………………………………………………………………………………………………………………………….82II.2. Application……………………………………………………………………………………………………………………………….84
II.2.1. Un seul sujet, Une seule modalité……………………………………………………………………………………………………………………………….84II.2.2. Un seul sujet , Plusieurs modalités……………………………………………………………………………………………………………………………….84II.2.3. Plusieurs sujets, Une ou plusieurs Modalités……………………………………………………………………………………………………………………………….86
III. Approche de recalage……………………………………………………………………………………………………………………………….87III.1. Les méthodes géométriques……………………………………………………………………………………………………………………………….87
III.2. Les méthodes Denses……………………………………………………………………………………………………………………………….89
IV. Critère de Similarité……………………………………………………………………………………………………………………………….90IV.1. Critères de Similarité géométriques……………………………………………………………………………………………………………………………….90IV.2. Critère de Similarité denses……………………………………………………………………………………………………………………………….93
IV.2.1. Relation Identité……………………………………………………………………………………………………………………………….94IV.2.2. Relation Affine……………………………………………………………………………………………………………………………….94IV.2.3. Relation Fonctionnelle……………………………………………………………………………………………………………………………….95IV.2.4. Relation de Dépendance……………………………………………………………………………………………………………………………….96
V. Interpolation……………………………………………………………………………………………………………………………….96
VI. Les modèles de transformation……………………………………………………………………………………………………………………………….98VI.1. Le recalage rigide (linéaire)……………………………………………………………………………………………………………………………….99
VI.1.1. La transformation rigide……………………………………………………………………………………………………………………………….99VI.1.2. La transformation affine……………………………………………………………………………………………………………………………….100
VI.2. Le recalage non-rigide (non-linéaire)……………………………………………………………………………………………………………………………….101
VII. Optimisation……………………………………………………………………………………………………………………………….103VII.1. La descente de gradient……………………………………………………………………………………………………………………………….104VII.2. Quasi-Newton……………………………………………………………………………………………………………………………….104VII.3. Gradient Conjugué non-linéaire……………………………………………………………………………………………………………………………….105
VIII. Conclusion……………………………………………………………………………………………………………………………….107
III. Le format Analyze……………………………………………………………………………………………………………………………….112III.1. Le fichier d'entête HDR……………………………………………………………………………………………………………………………….112
III.2. Le fichier IMG……………………………………………………………………………………………………………………………….119III.2.1. Description……………………………………………………………………………………………………………………………….119III.2.2. Lecture……………………………………………………………………………………………………………………………….120III.2.3. Visualisation……………………………………………………………………………………………………………………………….123
IV. Test et Validation……………………………………………………………………………………………………………………………….124IV.1. Validation Visuelle………………………………………………………………………………………………………………………………. 124
IV.1.1. Fusion……………………………………………………………………………………………………………………………….125IV.1.2. Triangulation ……………………………………………………………………………………………………………………………….127IV.1.3. Extraction du cerveau……………………………………………………………………………………………………………………………….128IV.1.4. Extraction de région d’intérêt ……………………………………………………………………………………………………………………………….129
En imagerie médicale, chaque modalité présente un aspect différent de l’anatomie étudié : En
radiologie par exemple, les rayons X mettent en évidence les matières les plus denses telles
que les os. L’imagerie par résonance magnétique permet la visualisation des différents tissus
anatomique, en IRM cérébrale il s’agit alors de la matière blanche (mb), matière grise (mg) et
le liquide céphalorachidien (lcr). En médecine nucléaire, la tomographie par émission de
positons1 (TEP) est une méthode qui permet de mesurer l'activité métabolique d'un organe
grâce aux émissions produites par les positons issus de la désintégration d'un produit
radioactif injecté au préalable. La TEP repose sur le principe général de la scintigraphie qui
consiste à injecter un traceur qui est généralement sous forme de glucose. Ce traceur est
marqué par un atome radioactif qui émet des positons dont l'annihilation produit elle-même
des photons . La détection de la trajectoire de ces photons par le collimateur de la caméra TEP
permet de localiser le lieu de leur émission et donc la concentration du traceur en chaque
point de l'organe. Cette information quantitative est représentée sous la forme d'une image
faisant apparaître les zones de forte concentration du traceur. Ainsi la TEP permet de
visualiser les activités du métabolisme des cellules : on parle d'imagerie fonctionnelle par
opposition aux techniques d'imagerie dite structurelle comme celles basées sur les rayons X
(radiologie ou scanner) qui réalisent des images de l'anatomie. Par conséquent, la tomographie
par émission de positons est un outil diagnostique qui permet de déceler certaines pathologies
qui se traduisent par une altération de la physiologie normale comme les cancers ; en effet,
Comme les cellules tumorales sont plus actives que les cellules normales, elles consomment
davantage de glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du
glucose radioactif dans l’organisme et donc de localiser des cellules cancéreuses. De
nombreuses méthodes de segmentation automatique d’images TEP ont été proposées dans la
littérature, pour la plupart d’entres elles, les efforts de recherches se sont concentrés
uniquement sur les données brutes fournies par l’image TEP. Cependant à cause du manque
de détail anatomique dans l’image TEP, ces algorithmes aboutissent généralement à une
segmentation fonctionnelle du volume TEP, et plus particulièrement à la segmentation des
hyperfixations2.
L’objectif de notre projet est la segmentation de volume TEP cérébrales, en intégrant les
connaissances apriori de l’anatomie cérébrale. Le principe de notre approche consiste à
1 En physique des particules, le positron ou positon, encore appelé antiélectron est l'antiparticule associée à l'électron. Il
possède une charge électrique de +1 charge élémentaire (contre -1 pour l'électron) 2 Zone de forte concentration du traceur radioactif
appliquer une transformation géométrique sur un atlas anatomique (segmenté et étiqueté) de
manière à ce qu’il soit correctement aligné au volume TEP à segmenter. Nous obtenons ainsi
une segmentation du volume TEP en structures anatomiques. La transformation géométrique
est déterminée par un procédé de recalage.
CHAPITRE I L’imagerie Médicale
14
I. Introduction :
Figure I.1 : Evolution de la pratique médicale
L’imagerie médicale regroupe l’ensemble des techniques permettant de visualiser une partie
du corps humain ou d’un organe sans avoir à opérer le patient ; cela, en créant une image
visuelle compréhensible d’une information à caractère médical dans le but d’établir un
diagnostic et de faire un suivi approprié du traitement.
De la trépanation (a) à la robotique chirurgicale (b), la pratique médicale a connu une
véritable révolution (Figure I.1). De nos jours, grâce aux nouvelles techniques d’imagerie, les
procédés de traitement se sont modernisés, le diagnostic est devenu plus précis et la qualité
des soins est désormais meilleure. Loin des pratiques traditionnelles, où «voir» passait par
«ouvrir», aujourd’hui, les radiologues, à l’aide des techniques tomographiques, peuvent
diagnostiquer et traiter de façon quasiment non-invasive. Le recours à la chirurgie invasive est
devenu la solution de dernier recours.
Selon la nature des recherches, on distingue celles qui fournissent des propriétés structurelles
(morphologiques) de la zone étudiée (IRM, Rayons X...), de celles qui restituent des aspects
fonctionnels (TEP, IRMf) :
• l’imagerie structurelle : permet d’obtenir des informations sur l’anatomie et la
structure des organes (leur taille, leur volume, leur localisation, la forme d’une
éventuelle lésion, etc.)
CHAPITRE I L’imagerie Médicale
15
• l’imagerie fonctionnelle : concerne le fonctionnement ; elle a révolutionné la
médecine en donnant un accès immédiat et fiable à des informations jusqu’alors
invisibles au diagnostic clinique.
Figure I.2 : Illustration de la multimodalité pour la compréhension du cerveau
Plusieurs modalités sont parfois utilisées pour effectuer un seul diagnostic (Figure I.2). Pour
certaines anomalies, le radiologue doit, à la fois, étudier l’aspect structurel et fonctionnel
d’une zone d’intérêt. Or, ces modalités sont, en général, utilisées avec un décalage dans le
temps. Les informations recueillies doivent être alors fusionnées dans un même repère pour
permettre d’effectuer les différentes analyses et comparaisons, nécessaires à l’établissent d’un
diagnostic précis et efficace.
CHAPITRE I L’imagerie Médicale
16
Dans ce chapitre nous survolerons les différentes techniques d’acquisition d’images médicales
telles les techniques Radiographiques, Ultrasonores et par Résonance Magnétique (IRM).
II. Modalités d’acquisition d’Images Médicales : Les différents appareils d’acquisition d’images médicales sont nombreux et permettent
d’obtenir des informations différentes selon le procédé physique utilisé pour observer les
tissus du corps humain. Certains procédés apportent une information anatomique (Imagerie
Structurelle) tandis que d’autres détectent la fonctionnalité des organes en offrant une carte
d’activité.
Sans vouloir être exhaustif, nous décrirons rapidement dans ces paragraphes les principales
modalités d’acquisition d’images médicale.
II.1. Les Rayons X : Les rayons X ont été découverts par hasard en 1895 par Wilhelm Röntgen [21] qui étudiait
les rayons cathodiques dans un tube à décharge gazeuse sous haute tension. Bien que ce tube
fût enchâssé dans un boîtier de carton noir, Röntgen nota qu'un écran de Platinocyanure de
Baryum, placé par hasard à proximité, émettait une lumière fluorescente lorsque le tube
fonctionnait. Après avoir effectué d'autres expériences, il conclut que cette fluorescence était
causée par un rayonnement invisible d'une nature plus pénétrante que le rayonnement
ultraviolet.
Comme il ne trouva pas de dénomination adéquate pour ces rayons, Röntgen les baptisa
« Rayons X ». Notons au passage que ce rayonnement est encore souvent appelé en
Allemagne Röntgenstrahlung. Peu après la découverte des rayons X, leur capacité à traverser
le corps humain fut mise en évidence et donnèrent naissance aux premières images médicales.
Le premier cliché est celui de la main d'Anna Bertha Röntgen (22 décembre 1895); il s'agit de
la première radiographie, la radiologie est née.(figure I.3)
CHAPITRE I L’imagerie Médicale
17
Figure I.3 : Une des premières radiographies prise par Wilhelm Röntgen.
II.1.1. La Radiographie Conventionnelle : [1] Le terme « Radiographie » peut désigner l'ensemble des techniques permettant de réaliser les
clichés des structures internes d'un patient ou d'un composant mécanique et ce, à l'aide de
rayons X. L'application la plus courante est la radiographie médicale dans laquelle les clichés
traduisent l'opacité plus ou moins marquée des tissus ou organes par une teinte plus ou moins
claire.(Figure I.4)
Sachant que le corps est composé de tissus dits "mous" c’est à dire peu opaques aux rayons X
(comme la peau, la graisse, les muscles) et de tissus plus opaques (les os essentiellement), le
procédé de radiographie consiste à faire traverser un corps étudié par un faisceau de rayons
X ; Ceux-ci viennent frapper et imprimer une matrice de détecteurs photosensibles. L'image
est créée par la différence d'opacité des tissus due aux rayons X.
Les procédés d’acquisitions radiographiques mesurent la quantité de rayons X parvenant sur
les détecteurs et donc, pour les tissus traversés, leur coefficient d’absorption de rayons X. La
radiographie est encore le plus souvent réalisée sur film, celui-ci étant disposé dans une
cassette protectrice derrière ou sous le corps exposé.
CHAPITRE I L’imagerie Médicale
18
Figure I.4 : Radiographie du cavum et des sinus frontaux
Néanmoins, l'exclusivité de la radiographie sur film est généralement réservée aux « Tables
d'Os » qui sont dédiées uniquement à l'examen osseux.
La plupart des systèmes d'imagerie médicale proposent désormais une numérisation de
l'image réalisée par une transformation des rayons X en électrons via une couche d'iodure de
césium (CsI).
Cette radiologie numérique permet des applications de téléradiologie où le médecin qui
interprète les images se trouve à distance, éloigné du lieu où s’effectue l’examen (parfois
même dans un autre pays). Des applications de cette technologie sont effectives dans certains
hôpitaux des États-unis où des radiologues, situés en Inde font une première analyse des
clichés.
Les limites de la technique se situent sur deux plans :
• L'image restituée étant une projection en deux dimensions, il faut savoir l’interpréter
(sauf s’il y a utilisation d’une reconstruction en 3D).
• L'impact nocif sur l'organisme reste un problème majeur, qu'il s'agisse de la quantité
d'iode injectée le cas échéant ou qu'il s'agisse de l'exposition aux rayons X en cas de
procédure lourde ou répétée (possibilité d'alopécie ou de brûlure locale) bien que les
personnels soignants à proximité du patient soient les premiers concernés par ce dernier
risque.
CHAPITRE I L’imagerie Médicale
19
II.1.2. La Tomodensitométrie (scanner) : [5] Le scanner, également appelé tomographe axial assisté par ordinateur (TAO), est un dispositif
de radiographie associant rayons X et traitement informatique permettant d’obtenir, par des
mesures de densité, une image des plans de coupe d’un objet, en particulier du corps humain.
Inventé par le Britannique Godfrey Hounsfield dans les années 1970, le scanographe —
appelé également scanner en raison de l’analyse par balayage qu’il effectue (de l’anglais
scanning) — reconstitue l’image du corps en mesurant la densité des rayonnements X à
travers le corps humain sous différents angles.
Le dispositif est constitué d’une source de rayons X, ou générateur, d’un couple émetteur-
détecteur et d’un appareil de balayage, le tout étant relié à un système de traitement
informatique et à une console permettant de visualiser et, éventuellement, d’archiver les
images. Le détecteur est composé d’un scintillateur et d’un photomultiplicateur ; dans les
premiers équipements, on employait des cristaux d’iodure de sodium, remplacés aujourd’hui
par un gaz rare, comme le xénon, placé dans une chambre d’ionisation.
Il existe différents systèmes de balayage. Dans l’un d’eux, le couple émetteur-détecteur
effectue un mouvement de translation, puis une rotation d’un angle a, ceci jusqu’à na = 180°
(n étant le nombre de rotations). Les densités ensuite déterminées sont converties en « unités
Hounsfield ».
Actuellement, la plupart des grands hôpitaux sont équipés de scanners qui révèlent les
tumeurs cancéreuses du foie, du cerveau, du poumon, des reins et qui décèlent les hernies
discales. La scanographie permet de distinguer par exemple les kystes, les masses de sang, de
graisse, de calcium. Elle a totalement révolutionné la radiologie, en particulier en neurologie.
En outre, l’examen est indolore et presque sans danger pour le patient.
II.1.3. L’Angiographie : [17] L'angiographie est une technique d'imagerie médicale dédiée à l'étude des vaisseaux sanguins
qui ne sont pas visibles sur la radiographie standard. On parle d'artériographie pour
l'exploration des artères et de phlébographie pour celle des veines. L'angiographie est un
examen basé sur l'injection d'un produit de contraste lors d'une imagerie par rayons X. Sa
signification littérale est «imagerie des vaisseaux» (Figure I.5)
CHAPITRE I L’imagerie Médicale
20
Figure I.5 : Angiographie des mains.
Cette technique utilise les rayons X et un produit de contraste « radio-opaque ». Celui-ci peut
être constitué soit d’Iode (élimination par les reins) soit de dioxyde de carbone (CO2). Son
principe consiste à rendre visibles (ou opaques) les vaisseaux artériels ou veineux. Un cathéter
est introduit dans le vaisseau pour injecter le produit de contraste qui se mélange au sang : le
système vasculaire devient visible sur les clichés radiologiques grâce aux propriétés radio-
opaques de l'iode. L'artériographie peut concerner n'importe quelle artère du corps. Pour une
exploration cardiaque, on parlera de coronarographie ; pour celle carotidienne et céphalée, on
parlera de neuro-angiographie.
II.2. Les Images Ultrasonores : L’Echographie : [18]
L’échographie est une technique médicale consistant à visualiser certains organes à l'aide de
sons à haute fréquence (les Ultrasons). Les sons réfléchis par les organes sont analysés par
ordinateur de façon à produire une image sur un écran ou une photographie. Les sons sont émis
par un cristal à oscillation rapide dont la fréquence se situe entre 18 et 20 kHz. Ces vibrations
du cristal durent un millionième de seconde et se produisent 500 fois par seconde. On utilise
une sonde, en contact étroit avec la peau, pour émettre les sons et recevoir les échos. La peau
est également enduite de gel pour améliorer l'acoustique. L'air, les os et les tissus calcifiés
CHAPITRE I L’imagerie Médicale
21
absorbent la quasi-totalité des faisceaux d'ultrasons. Cet examen n'est donc pas utile pour
diagnostiquer les atteintes osseuses ou pulmonaires. En revanche, les fluides sont de bons
conducteurs d'ultrasons, si bien que cette technique est utilisée pour examiner les kystes et des
organes tels que la vessie, le système biliaire ou visualiser le fœtus dans le sac amniotique.
L'échographie peut également servir aux examens du réseau artériel, du cœur, du pancréas, de
la cavité péritonéale, de l'appareil urinaire, des ovaires, du système veineux, du cerveau et de
la moelle épinière. L'examen du fœtus pendant la grossesse est pourtant son utilisation la plus
courante.
L'échocardiographie est l'application de la technique des ultrasons à l'examen du cœur. Elle
est utilisée pour étudier les maladies cardiaques congénitales, les affections coronariennes, les
tumeurs cardiaques et d'autres troubles du cœur. L'échographie est également utilisée pour
guider les interventions chirurgicales comme l'amniocentèse amniocentèse ou au cours des
biopsies délicates.
À la différence des rayons X, l'échographie n'est pas contre-indiquée pendant la grossesse
puisqu'elle ne présente aucun risque, ni pour la mère, ni pour l'enfant. Elle permet de suivre la
croissance et le développement du fœtus, de s'assurer de sa bonne santé et de préciser le terme
du bébé car il est possible de déterminer l'âge exact du fœtus en mesurant son tour de tête.
II.3. Les Images Par Résonance Magnétique : [46] L’imagerie par résonance magnétique (IRM), est une technique d'imagerie médicale
utilisée pour faire un diagnostic et se basant sur les principes de la résonance magnétique
nucléaire. Les images données par cette technique sont utilisées depuis une vingtaine
d'années, mais c'est entre 1930 et 1940 que furent conduites les recherches fondamentales
sur les interactions entre le noyau de l'atome et les champs magnétiques. En 1950, les
principes physiques fondamentaux de la résonance magnétique étaient déjà bien compris.
Pourtant, il restait encore trois conditions à remplir : disposer d'un ordinateur
suffisamment rapide et puissant, réaliser un aimant stable à taille humaine associé à des
appareils radio et enfin imaginer une utilisation médicale de ces techniques. Lauterbur,
Damadian et Mansfield ont démontré la faisabilité de cette idée en utilisant les principes
physiques de la résonance magnétique nucléaire. Les premières images réalisées grâce à
CHAPITRE I L’imagerie Médicale
22
cette technique furent publiées au début des années 1970. Les applications médicales se
sont considérablement développées dans les laboratoires et les centres médicaux du
monde entier entre 1983 et 1993.
Ces techniques d'imagerie médicale utilisant la résonance magnétique ont une multitude
d'applications. Les experts s'accordent à dire que l'IRM est la méthode de diagnostic la
plus puissante et la plus sensible disponible actuellement. Pour donner une idée de son
importance, disons simplement qu'elle permet d'obtenir des images de n'importe quel
organe, dans n'importe quelle coupe, et ce dans un délai relativement court. Des
techniques développées ultérieurement ont permis, par exemple, de visualiser l'anatomie
cardiaque dans tous ses détails. L'IRM a également pu être étendue à l'observation des
artères et des veines grâce à une technique appelée l'Angiographie à Résonance
Magnétique.
Enfin, la spectroscopie à résonance magnétique permet d'établir la composition
biochimique précise de toute partie du corps humain. La science dispose donc aujourd'hui
d'une quantité incroyable d'informations d'ordre biomédical et anatomique, ouvrant la
voie à de nouvelles découvertes et à un diagnostic plus précoce d'un certain nombre de
pathologies.
Le principe de l'IRM peut s'appliquer à l'organisme parce ce que ce dernier comporte une
multitude de petits « aimants atomiques », le plus courant et le plus réactif étant le proton
du noyau de l'atome d'hydrogène. Le principe de l'IRM met à profit la distribution
aléatoire des protons qui possèdent des propriétés magnétiques. Le processus se fait en
trois étapes. Dans un premier temps, l'IRM place le corps dans un champ magnétique très
puissant (30 000 fois plus puissant que celui de la Terre) qui oriente tous les protons dans
la même direction. Ensuite, les protons sont excités par des ondes radio, qui modifient
leur orientation. Enfin, la stimulation est brutalement interrompue, et l'appareil recueille
une onde dite de « résonance » par des antennes spécialement conçues. L'analyse
informatique du signal transmis permet d'établir les images des organes internes en
utilisant des méthodes similaires à celles qui ont été mises au point pour la radiographie
aux rayons X ou les scanners.
L'IRM est choisie pour diagnostiquer des atteintes du cerveau et du système nerveux
central. Les examens par IRM ont une résolution anatomique comparable à celle des
CHAPITRE I L’imagerie Médicale
23
scanners, mais d’un meilleur contraste. Ils fournissent le même type d'informations que la
tomographie par émission de positons, mais avec plus de détails anatomiques. Par
ailleurs, l'IRM est très supérieure aux images à rayons X, car elle a la capacité de
distinguer les différences d'intensités entre les tissus mous normaux et pathologiques.
L'IRM est sans risque. Elle est toutefois contre-indiquée aux patients porteurs de
prothèses. L'IRM est un examen très coûteux, mais qui constitue un progrès fantastique.
Elle fournit des éléments de diagnostic plus variés et plus précis.
II.4. L’imagerie Nucléaire :
La découverte de la radioactivité artificielle en 1934 par Irène et Frédéric Joliot-Curie a
été à l'origine de l'émergence d'une discipline médicale nouvelle, la médecine nucléaire.
Cette découverte a conduit à la production des isotopes radioactifs des éléments
constituants de la matière vivante et à leur utilisation comme traceurs. L'élément
radioactif est totalement indiscernable de son homologue stable naturel, sauf pour l'une
de ses propriétés : il est capable de manifester sa présence dans l'ensemble des atomes par
un rayonnement électromagnétique ou particulaire émis lors de sa désintégration.
La médecine nucléaire est l'ensemble des applications médicales des radiotraceurs ou
source radioactives. Cette technique se distingue de la plupart des autres modalités
médicale par le fait qu’elle apporte des images physiologique plutôt qu’anatomique. Des
molécules dont le comportement biologique est connu sont introduites dans le corps du
patient de la façon appropriée au test en cours : injecté, avalé, inhalé etc. Leur
comportement est alors étudié par le biais de l’imagerie par émission.
II.4.1. La Scintigraphie : [32]
La scintigraphie est une méthode d'imagerie médicale qui procède par l'administration,
dans l'organisme, d'isotopes radioactifs afin de produire une image médicale par la
détection des rayonnements émis par ces isotopes après captation par les organes à
examiner. Les différents traceurs utilisés sont spécifiques et capables de se fixer
sélectivement sur l'organe que l'on désire étudier. Une caméra à scintillation, détectant la
radioactivité, se déplace selon un axe longitudinal et transversal au-dessus de l'organe
étudié. Les informations sont ensuite présentées sous la forme d'un document
CHAPITRE I L’imagerie Médicale
24
photographique, en noir et blanc, parfois artificiellement colorisé pour augmenter les
contrastes.
II.4.1.1. La scintigraphie thyroïdienne :
La scintigraphie thyroïdienne (Figure I.6) repose sur l'utilisation d'un produit radioactif
qui se fixe sélectivement sur la thyroïde pour une recherche d'une anomalie
morphologique ou fonctionnelle. Deux radioéléments sont utilisés pour cet examen :
l'iode-123 et le technétium-99m. A l'aide de la scintigraphie thyroïdienne, il est possible
de visualiser des régions de la thyroïde qui captent moins le traceur (hypofixations
appelées nodules froids) ou qui captent plus le traceur (hyperfixations appelées nodules
chauds).
Figure I.6 : Scintigraphie thyroïdienne
II.4.1.2. La Scintigraphie Osseuse :
La scintigraphie osseuse repose sur la fixation dans les structures osseuses de molécules
phosphatées marquées au technétium-99m. Le radiopharmaceutique est injecté par voie
intraveineuse et aucune préparation particulière du patient n'est nécessaire avant
l'examen. Le traceur circule dans le sang et sa captation par le squelette est maximale au
bout de trois heures, ce qui impose un temps d'attente équivalent entre l'injection et le
début de l'examen.
CHAPITRE I L’imagerie Médicale
25
Figure I.7 : Scintigraphie Osseuse
II.4.1.3. La Scintigraphie Cardiaque :
La scintigraphie cardiaque (Figure I.8) permet d'évaluer la circulation du sang au niveau
du muscle cardiaque (évaluation de la perfusion) et donne des renseignements sur sa
fonction et ses capacités de contraction. La comparaison de la fixation du radiotraceur
dans le muscle cardiaque pour deux examens, un d'effort et un de repos, permet de
diagnostiquer ou d'exclure des maladies cardiaques. Les traceurs radioactifs couramment
utilisés pour cet examen sont le Thallium-201 et le Technétium-99m.
Figure I.8 : Scintigraphie Cardiaque.
II.4.2. La Tomographie par Emission de Positons :
En médecine nucléaire, la tomographie par émission de positons1 (TEP) est une méthode qui
permet de mesurer l'activité métabolique d'un organe grâce aux émissions produites par les
positons issus de la désintégration d'un produit radioactif injecté au préalable[9]. La TEP
repose sur le principe général de la scintigraphie qui consiste à injecter un traceur qui est
généralement sous forme de glucose [13]. Ce traceur est marqué par un atome radioactif qui 1 En physique des particules, le positron ou positon, encore appelé antiélectron est l'antiparticule associée à
l'électron. Il possède une charge électrique de +1 charge élémentaire (contre -1 pour l'électron)
CHAPITRE I L’imagerie Médicale
26
émet des positons dont l'annihilation produit elle-même des photons [39]. La détection de la
trajectoire de ces photons par le collimateur de la caméra TEP permet de localiser le lieu de
leur émission et donc la concentration du traceur en chaque point de l'organe. Cette
information quantitative est représentée sous la forme d'une image faisant apparaître les zones
de forte concentration du traceur. Ainsi la TEP permet de visualiser les activités du
métabolisme des cellules : on parle d'imagerie fonctionnelle par opposition aux techniques
d'imagerie dite structurelle comme celles basées sur les rayons X (radiologie ou scanner) qui
réalisent des images de l'anatomie. Par conséquent, la tomographie par émission de positons
est un outil diagnostique qui permet de déceler certaines pathologies qui se traduisent par une
altération de la physiologie normale comme les cancers ; en effet, Comme les cellules
tumorales sont plus actives que les cellules normales, elles consomment davantage de
glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du glucose
radioactif dans l’organisme et donc de localiser des cellules cancéreuses [8]
La TEP est aussi utilisée en recherche biomédicale, par exemple en imagerie cérébrale où elle
permet de révéler les régions actives du cerveau lors de différentes activités cognitives. Dans
la figure I.9 nous remarquons que l’écoute subjective ou analytique d’une même pièce de
musique par un même sujet active respectivement l’hémisphère droit ou l’hémisphère gauche.
Figure I.9 Scan-TEP lors d’une écoute subjective (a) et analytique (b) d’une même pièce de musique par le
même sujet
CHAPITRE I L’imagerie Médicale
27
III. Conclusion :
L’imagerie médicale est certainement l’un des domaines de la médecine qui a le plus
progressé ces vingt dernières années, puisqu’elle a vu l’irruption de la machine. Le médecin
demeure lecteur et arbitre, mais c’est l’informatique qui révèle l’anatomie. Ces récentes
découvertes permettant non seulement un meilleur diagnostic mais offrent aussi de nouveaux
espoirs de traitement pour de nombreuses maladies.
Le besoin de concevoir des méthodes automatiques ou semi-automatiques pour traiter plus
spécifiquement les images médicales s’est donc fait ressentir. Une nouvelle communauté de
recherche spécialisée en traitement des images médicales est née. Ces chercheurs issu
principalement de la communauté «traitement d’images», tentent de répondre aux nombreuses
questions des radiologues. L’ensemble des solutions apportées font appel à des paradigmes
souvent présents dans d’autres domaines. Parmi ces paradigmes nous citons la restauration
d’images, la morphométrie, la segmentation, le recalage, la classification, la réalité
augmentée, la simulation et la robotique.
CHAPITRE II L’image Numérique
29
I. Introduction :
Le traitement d’image est une discipline relativement jeune (années 60) en pleine expansion,
donnant ainsi lieu chaque année à une multitude de travaux académiques, technologiques et
industriels.
Par traitement d'images, on désigne l'ensemble des opérations appliquées sur les images
numériques transformant une image en une autre, ou en une primitive formelle.
Ce chapitre a pour objectif l’introduction au domaine du traitement d’image. Nous aborderons
d’abord le vocabulaire et quelques notions fondamentales relatives à cette discipline telles que
la résolution spatiale et la quantification. Nous verrons par la suite les différentes techniques
de prétraitements en nous plaçant dans un contexte 2D puis 3D. Cependant, nous nous
focaliserons sur les images 2D lorsque la généralisation en 3D est triviale.
II. L’image Numérique :[ 2]
II.1 Définition :
Une image numérique est une fonction I à support discret et à valeurs discrètes. Le support
peut être bidimensionnel ou tridimensionnel. La fonction I associe à chaque élément du
support une mesure qui, à son tour peut être soit :
• Scalaire : lorsqu’il s’agit d’une intensité, comme par exemple le niveau de gris.
soit
• Vectorielle : la mesure est répartie en plusieurs canaux distincts. Dans le cas
d’image couleur RVB par exemple, chaque composante du vecteur représente une
des trois couleurs primaires (Rouge, Vert, Bleu).
Nous discutons de manière plus détaillée de l’espace de couleur dans la section II.4.
La nature d’une image dépend du phénomène physique à mesurer. Le tableau II.1 présente les
types les plus courants, les grandeurs physiques associées et les capteurs utilisés.
CHAPITRE II L’image Numérique
30
Phénomène Physique Grandeur Mesurée Capteur
Lumière visible Flux photonique émis ou réfléchi CCD, Scanner,…
Parfois il est visuellement plus parlant de représenter une image niveaux de gris en une image
couleurs, en remplaçant chaque niveau de gris par une couleur au moyen d'une
correspondance entre niveaux de gris et couleurs. Il s’agit ici de fausses couleurs, ou de
pseudocouleurs. La figure II.8 illustre une image TEP niveaux de gris (a) transformée en
pseudocouleurs (b) à partir d’une fonction de correspondance entre niveau de gris et RVB,
celle-ci est illustrée dans la figure II.9.
Figure II.8 : Transformation d’une image TEP niveau de gris (a) en couleur (b)
1 Commission Internationale de l'Éclairage
CHAPITRE II L’image Numérique
38
Figure II.9 : Fonction de correspondance niveaux de gris et couleurs
IV. Résolution d’une image :
En optique, on appelle la résolution spatiale d'un appareillage, la distance minimum entre
deux sources lumineuses ponctuelles permettant de les distinguer. Plus cette distance est
petite, mieux on voit les détails de l'image ainsi produite ; on dit que la résolution spatiale est
plus fine ou plus grossière selon que cette distance est plus petite ou plus grande.
Comme nous l’avons vu précédemment, une image numérique est formée par un alignement
horizontal et vertical de pixels. Pour que deux sources ponctuelles lumineuses apparaissent
distinctement dans une telle image, il faut qu'elles soient sur deux pixels distincts. Par
conséquent la résolution spatiale, au sens optique, d'un système d'imagerie informatique, se
mesure par les dimensions spatiales d'un pixel. La résolution spatiale est plus fine ou plus
grossière selon que les dimensions des pixels sont plus petites ou plus grandes. Généralement,
la largeur et la hauteur d'un pixel sont égales (pixel carré), donc on peut mesurer la résolution
spatiale par le nombre de pixels par unité de longueur.
La quantification des intensités lumineuses dans l’image donne lieu à la résolution tonale ;
celle-ci correspond au nombre de valeurs différentes que l’on peut associer aux pixels de
l’image.
CHAPITRE II L’image Numérique
39
IV.1. La Résolution Spatiale :
Une image numérique ne constitue qu’une version approchée de l’image réelle formée par
l’image de projection de la scène 3D sur la portion de plan correspondant à la surface
photosensible du capteur. La qualité d’apporixmation dépend de la quantité d’information
portée par l’image numérique, en particulier de la résolution spatiale. La figure II.10
illustre différentes résolutions spatiales d’une même image TEP agrandies à la taille originale.
Figure II.10 : TEP, originale 128 x 128 (a) – 64 x 64 (b) – 32 x 32 (c)
Il est intuitivement évident qu’une structure fine comportant de fortes variations spatiales
nécessite plus de pixels qu’une structure présentant moins de variations. Cependant en
pratique le nombre de pixels est limité et dépend du dispositif d’acquisition ; il est donc
souhaitable que les pixels utilisés donnent lieu à une représentation plus ou moins ‘moyenne’
de la région concernée.
La figure II.11 représente un signal 1D sinusoïdal discrétisé avec un pas d’échantillonnage ne
satisfaisant pas la condition du théorème d’échantillonnage de Nyquist-Shannon2.[37]
On remarque dans la figure II.11 que le signal discret résultant est de même allure sinusoïdale
que le signal continu mais avec une fréquence 9 fois plus faible. Ce phénomène est appelé
aliasing. En signaux bidimensionnels, c'est-à-dire les images, le phénomène d’aliasing a une
ampleur aussi importante, faisant apparaitre des structure ne correspondant pas à la réalité
2 La fréquence d'échantillonnage d'un signal doit être égale ou supérieure au double de la fréquence maximale
contenue dans ce signal, afin de convertir ce signal d'une forme continue à une forme discrète
CHAPITRE II L’image Numérique
40
Figure II.11 : Phénomène d’aliasing sur un signal 1D
La figure II.12 illustre une bande rouge (a) discrétisée à une résolution fine (b) puis grossière
(c). Dans (b) nous obtenons une structure plus ou moins conforme à l’image continue,
cependant dans (c) une structure différente apparait ne représentant pas la réalité de l’objet ;
en effet, la bande ne conserve plus sa propriété de continuité du fait de la faible résolution
spatiale.
Figure II.12 : Phénomène d’aliasing sur une image
CHAPITRE II L’image Numérique
41
IV.2. La Résolution Tonale :
La résolution tonale d’une image correspond au nombre de valeurs différentes que l’on peut
associer aux intensités des pixels dans cette image, elle est exprimée par le nombre de bits
utilisé pour coder les valeurs des pixels. Idéalement le nombre de valeurs différentes des
intensités dans une image devrait dépendre de l’amplitude des grandeurs observées dans la
scène, cependant en pratique ce nombre dépend de la sensibilité du capteur.
La figure II.13 illustre une image TEP en niveaux de gris à des résolutions tonales différentes.
Figure II.13: Image TEP 8 bits (a) – 4 bits (b) - 1 bit (c).
V. Prétraitement d’image :
Le prétraitement d’image regroupe l’ensemble des techniques visant à améliorer l’aspect
d’une image. Ces opérations sont diverses ; en effet, il pourrait s’agir de renforcement de
contraste, de réduction de bruit3, ou d’extraction de primitive dans l’image (contours, points
d’intérêt, etc.) ; ceci, dans le but de faciliter les traitements ultérieurs tel que segmentation ou
la reconnaissance de forme.
3 Altération de certains pixels dans l’image, pouvant être causée par le processus d’acquisition, de transmission
ou de stockage.
CHAPITRE II L’image Numérique
42
Nous pouvons classer l’ensemble de ces opérations en trois catégories :
• Les Opérations Ponctuelles.
• Les Opérations Globales.
• Les Opérations Locales.
Nous présentons ici quelques méthodes pour chacune de ces catégories. Dans ce qui suit,
nous notons par =>6? la nouvelle image issue de l’opération sur une image en entrée =.
V.1. Les Opérations Ponctuelles :
Dans ce type d’opération, la nouvelle intensité de chaque pixel de l’image dépend uniquement
de son ancienne valeur indépendamment des valeurs des autres pixels dans l’image.
L’opération est représentée sous forme de courbe tonale, associant pour chaque valeur de =
une nouvelle valeur dans =>6?.[53]
V.1.1. Changement d’éclairage :
Comme son nom l’indique, cette opération effectue un changement d’éclairage sur l’image, il
peut s’agir d’un éclaircissement ou d’un assombrissement, selon le signe du facteur de
translation :. Cette valeur est additionnée à l’ensemble des pixels de l’image, ce qui a pour
effet, la translation de l’histogramme de l’image vers la direction donnée par :. L’opération
s’exprime comme suit :
=>6? , = , : (2.8)
La figure II.14 illustre la courbe tonale correspondant à un éclaircissement (a) et à un
assombrissement (b).
CHAPITRE II L’image Numérique
43
Figure II.14 : Courbe Tonale de l’opération d’éclaircissement (a) et d’assombrissement (b)
V.1.2. Inversion :
L’opération d’inversion consiste à inverser les valeurs des pixels de l’image par rapport à la
moyenne de valeur possible. Pour les images en niveau de gris l’opération s’exprime ainsi :
=>6? , /00 = , (2.9)
La figure II.15 illustre la courbe tonale de l’opération d’inversion.
Figure II.15 : Courbe Tonale de l’opération d’inversion.
CHAPITRE II L’image Numérique
44
V.1.3. Seuillage :
L'opération dite de seuillage consiste à mettre à zéro tous les pixels ayant une valeur
inférieure à un certain seuil et, à la valeur maximale, l’ensemble des pixels ayant une valeur
supérieure au seuil. Ainsi le résultat du seuillage est une image binaire contenant des pixels
noirs et blancs, c'est la raison pour laquelle le terme de binarisation est parfois employé.
L’opération de seuillage pour une image en niveaux de gris s’exprime ainsi :
=>6? , @ . A = , B CDEF/00 ->3> (2.10)
Le seuillage permet de mettre en évidence des formes ou des objets dans une image. Toutefois
la difficulté réside dans le choix du meilleur seuil. La figure II.16 illustre la courbe tonale de
l’opération de seuillage.
Figure II.16 : Courbe Tonale de l’opération de Seuillage
V.2. Les opérations globales :
Dans ce type d’opération, la nouvelle valeur de chaque pixel est calculée en tenant en compte
de l’intégralité des pixels dans l’image. Dans cette catégorie on trouve, par exemple, les
opérations sur les histogrammes ou les opérations qui nécessitent de passer dans l'espace de
CHAPITRE II L’image Numérique
45
Fourier. Nous nous limitons ici aux opérations de normalisation et d’égalisation
d’histogramme [15]
V.2.1. Normalisation d’histogramme :
La normalisation d’histogramme est une opération qui consiste à modifier les valeurs de
chaque pixel de manière à ce que l’image résultante exploite toute sa dynamique, améliorant
ainsi le contraste de l’image. Ceci revient à un étirement de l'histogramme afin que la valeur
d'intensité la plus faible => soit à zéro et que la plus haute = soit à la valeur maximale
(255) :
=>6? , = , => G /00= => 2.11
La figure II.17 illustre la courbe tonale qui correspond à la normalisation d’histogramme
Figure II.17 : Courbe Tonale de Normalisation d’histogramme.
V.2.2. Egalisation d’histogramme :
L’égalisation d’histogramme consiste à harmoniser la répartition des niveaux de luminosité de
l'image, de manière à tendre vers un même nombre de pixel pour chacun des niveaux, ceci
revient à l’aplatissement de l’histogramme. Cette technique améliore le contraste et permet
d’augmenter artificiellement la clarté d’une image grâce à une meilleure répartition des
intensités. La nouvelle image est calculée de la manière suivante :
CHAPITRE II L’image Numérique
46
=>6? , /00 G I J>=,K. 2.12
V.3. Les opérations locales :
Dans ce type d’opération, la nouvelle valeur de chaque pixel est calculée en fonction de son
voisinage. Dans un contexte de prétraitement, ce type d’opération est dit opération de
filtrage ; en effet, il pourrait s’agir d’une part, de filtrer les imperfections de l’image tel que le
bruit ou, d’autre part, de filtrer l’information portée par l’image de manière à en faire ressortir
des primitives telles que les contours ou les point d’intérêt.
Il est d'usage de choisir un voisinage carré et symétrique autour du pixel considéré. Ce
voisinage est une fenêtre de taille assimilable à une matrice (voisinage d’un pixel) ou un
cube (voisinage d’un voxel), la valeur de détermine l’étendu du voisinage à considérer lors
du traitement. Dans ce qui suit nous fixons la valeur de à 3 ceci correspond au voisinage 8-
adjacent d’un pixel et au voisinage 26-adjacent d’un voxel.
Nous pouvons distinguer deux catégories de filtrage, le filtrage linéaire et le filtrage non-
linéaire :
V.3.1. Filtrage Linéaire :
Le filtre est dit linéaire lorsque la nouvelle valeur de chaque pixel peut s’exprimer sous forme
d’une combinaison linéaire des valeurs de voisinage :
=>6? , I I L M , MN G = M , MN 2.13 MKP
MNKP
La matrice L appelée noyau de convolution4, représente les coefficients entiers ou réels de la
combinaison linéaire spécifique au filtre. Dans le cas tridimensionnel, L est un cube :
4 Le noyau est indexé par des valeurs négatives et positives autour du centre A(0,0)
CHAPITRE II L’image Numérique
47
=>6? , , I I I L M , MN, MQ G = M , MN, MQ MKP
MNKP
MQKP 2.14
Nous présentons ici quelques noyaux de convolution usuels.
V.3.1.1. Filtre de Gauss : [55]
Ce filtre tente d’atténuer les changements brusques d’intensité ce qui permet de réduire le
bruit dans une image. Le noyau de convolution est calculé par une fonction Gaussienne de
manière à donner une forte pondération aux pixels plus proche du centre :
L, S√/ · U · 6P/V//·S² 2.15
Où S représente l’écart type.
La formule (2.15) est généralisée en 3D de la manière suivante : [33]
L, , S√/ · U · 6P/V/V²/·S² 2.16
Bien que ce filtre permette de réduire considérablement le bruit dans l’image, son application
provoque une dégradation de l’image, en particulier des contours. Ceci se manifeste par un
effet de flou (figure II.18)
Figure II.18 : Application du filtre Gaussien (b) sur une image bruitée (a).
CHAPITRE II L’image Numérique
48
V.3.1.2. Filtre de Sobel :
Ce filtre permet l’extraction des contours dans une image par le biais de sa dérivée (gradient) ;
en effet, un contour est défini par une forte variation d’intensité selon une direction précise,
ainsi, le filtre de Sobel détermine la variation d’intensité autour de chaque pixel selon chaque
direction. Plus cette variation est importante et plus le pixel a de chance de se situer sur un
contour.
Le filtre de Sobel se présente par un noyau pour chaque axe, ce qui correspond à deux noyaux Let LN dans le cas d’image 2D et à trois noyaux Let LN et LQ dans le cas de volume. Le
coefficient de chaque point du noyau est inversement proportionnel à la distance entre le point
en question et le centre du noyau. Ceci afin de privilégier les points les plus proches du centre.
Les coefficients sont calculés selon la formule d’Asfar [55] :
L, , Y || || || /. 7
Ainsi, les noyaux de Sobel se présentent comme suit :
En 2D :
L Z // . // . // . //\ ; LN Z // //. . . // // \
En 3D :
• L Z /' . /' // . // /' . /'\QKP
; Z // . // . // . //\QK. ; Z /' . /' // . // /' . /'\QK
; Z. . .. . .. . .\QK. ; Z /' // /' // // /' // /'\QK
V.3.2. Filtrage Non-Linéaire :
Si le filtre ne peut pas être exprimé par une combinaison linéaire, il est appelé non-linéaire.
Les filtres non-linéaires sont plus complexes à mettre en œuvre que les filtres linéaires.
Cependant les résultats obtenus sont très souvent de meilleure qualité. Nous présentons ici
deux filtres non-linéaires :
• Le filtre Médian.
• Le filtre de Diffusion.
V.3.2.1. Le filtre Médian : [3]
La médiane est une mesure statistique représentant une alternative robuste à la moyenne.
Considérons n valeurs numériques où n est impair. La valeur médiane correspond à la valeur
du centre de la suite lorsque celle-ci est ordonnée du plus petit au plus grand. L’application du
filtre médian dans une image consiste donc à remplacer chaque pixel ou voxel par la valeur
médiane de l’ensemble de son voisinage.
Le filtre médian est particulièrement efficace contre le bruit dans l’image sans pour autant
produire l’effet indésirable de flou, contrairement aux techniques de débruitage linéaires. La
figure II.29 illustre l’application du filtre médian sur une image bruitée.
CHAPITRE II L’image Numérique
50
Figure II.19 : Application du filtre Médian (b) sur une image bruitée (a)
V.3.2.2. Le Filtre de diffusion : [36]
Le filtre de diffusion tente d’atténuer les différences d'intensité entre chaque pixel et ses
voisins. Le principe est de calculer pour chaque voisin, la différence d'intensité avec le pixel
central. Plus la différence est faible, plus elle est propagée vers le pixel central. Cela permet
d'uniformiser les zones d'intensité proches et de conserver les forts contrastes (les contours).
Ainsi, la nouvelle valeur du pixel est calculée en ajoutant la somme des propagations à la
valeur actuelle :
=>6? , = , ^ · I I _= M, MN =, 2.18 MKP
MNKP
Le facteur permet de contrôler la force de la propagation afin d'éviter de saturer la nouvelle
valeur. _ est une fonction de pondération. Dans [42] Malik et Perona proposent les fonctions
de pondération suivantes :
• _ ∆= 6P∆= ² (2.19)
• _/∆= Vb∆= c/ (2.20)
∆= représente la variation d’intensité entre le pixel central et chacun de ses voisins. est une
constante.
CHAPITRE II L’image Numérique
51
VI. Conclusion :
Une image brute est généralement entachée de dégradations d’origines diverses ; l’objectif
des techniques de prétraitement que nous venons de voir est de minimiser l’influence de ces
dégradations sur les traitements ultérieurs. Parmi ces traitements on cite la segmentation
d’image qui consiste à faire un partitionnement de l’image en ensemble de régions
homogènes, ce qui permet d’avoir une représentation compacte de l’image facilitant ainsi son
interprétation. Face à la croissance de modalités d’acquisition d’images médicales et à la
complexité de celles-ci, la segmentation est devenue une nécessité en imagerie médicale.
Le chapitre suivant est consacré à la segmentation d’images médicales. Nous tenterons de
dresser un état de l’art sur les méthodes actuelles de segmentation d’images médicales.
Dans le tableau II.2, nous illustrons l’application de différentes techniques de prétraitement
vues dans ce chapitre sur une image TEP dégradée.
CHAPITRE II L’image Numérique
52
Opération Entrée Sortie
Réduction de bruit
Filtre Médian
Image 1 Image2
Augmentation de Contraste
Normalisation d’histogramme
Image 2 Image3
Binarisation
Seuil = 104
Image 3 Image 4
Application d’un masque
avec Image 4
Image 3 Image 5
Détection de contours
Filtre de Sobel
Image 5 Image 6
Tableau II.2 : Chaine de prétraitement appliquée à une image TEP
CHAPITRE III La Segmentation d’images Médicales
54
I. Introduction :
L'une des étapes critiques du traitement d'images est la segmentation, celle-ci consiste à
localiser dans une image les régions (ensembles de pixels) appartenant à une même structure
(objets ou scène imagés). Si l'homme sait naturellement séparer des objets dans une image
c'est grâce à des connaissances de haut niveau (compréhension des objets et de la scène).
Mettre au point des algorithmes de segmentation de haut niveau (chaque région est un objet
sémantique) est encore un des thèmes de recherche les plus courants en traitement d'images.
La segmentation est à la base de nombreuses applications tant en vision industrielle, qu'en
imagerie médicale. De nombreuses recherches ont eu lieu sur les méthodes de segmentation.
Il en résulte un très grand nombre de méthodes dont la comparaison, soit en termes de
structure soit en termes de performance, est très difficile.
Grace à l’évolution technologique dans le domaine médicale, un grand nombre de modalités
d’acquisition d’images médicales a vu le jour (Scanner, IRM, TEP,…etc.). Ces technologies
ont grandement augmenté nos connaissances en matière d’anatomie du corps et jouent
actuellement un rôle prépondérant dans le diagnostic médical. Cependant, la croissance du
nombre de modalité d’acquisition confronte l’expert aujourd’hui à un volume très important
d’information à traiter et diagnostiquer, ainsi, afin d’assister l’expert lors de son analyse, il est
devenu primordial de faire appel à des outils informatiques, et plus particulièrement aux
algorithmes de segmentation d’images qui consiste à délimiter les différentes structures,
pathologies ou région d’intérêt figurant dans l’image.
Ce chapitre est consacré à la segmentation d’images médicales. Nous aborderons d’abord
quelques notions fondamentales relatives à la segmentation d’images, nous verrons par la
suite les différentes techniques et approches de segmentation figurant en littérature. Nous
présenterons enfin le principe de notre approche de segmentation.
CHAPITRE III La Segmentation d’images Médicales
55
II. La segmentation d’images :
La segmentation d’images est un domaine de recherche en pleine activité qui couvre un
champ d’application très vaste (Imagerie médicale, Robotique, Imagerie Satellitaire…etc.).
En imagerie médicale la segmentation d’organe est si répandu qu’il serait difficile d’énumérer
la liste des organes communément segmentés, mais en général la liste inclurait au moins ce
qui suit : Le cerveau, le cœur, le foie et les vaisseaux sanguins.
Notons cependant qu’il n’existe actuellement pas d’algorithme universel de segmentation
applicable à tout type d’image; en effet le résultat de la segmentation dépend fortement de
l’information sémantique à discerner, celle-ci varie d’une application à une autre[54] ; de ce
fait nous nous focaliserons essentiellement sur la segmentation d’images médicales et plus
particulièrement aux images cérébrales (fig III.1).
Figure III.1 : Coupe d’une IRM mettant en évidence les différents tissus cérébraux
Source [57]
La segmentation d’image médicale consiste à associer à chaque voxel de l’image médicale
une étiquette ou un label indiquant ainsi le type de tissu ou la structure anatomique, la
collection d'étiquettes produite à travers le processus de segmentation s’appelle la carte
CHAPITRE III La Segmentation d’images Médicales
56
d’étiquettes (Labelmap). Celle-ci décrit la correspondance spatiale entre les intensités des
voxel dans l’image et les différents types de structure anatomiques présents dans l’image. La
figure III.2 illustre une coupe d’IRM cérébrale (a) ainsi que sa segmentation en tissus (b).
Figure III.2 : IRM cérébrale (a) – Segmentation de l’IRM en tissus (b)
II.1.Définition : [2]
Il n’est pas aisé de trouver une seule définition de la segmentation d’image car cette tâche est
souvent confondue avec la classification. Segmenter une image signifie trouver ses régions
homogènes et ses contours. Ces région et contours sont supposés être pertinents ; en effet, les
régions doivent correspondre aux parties significatives des objets du monde réel et les
contours à leurs contours apparents. Plus formellement, la segmentation est le processus de
partitionnement d’une image I en N sous-ensembles de région (R1,R2,…, RN) tel que :
1.
2. , , ,
3. 1, , 4. , , ! "#$! % &! ' ( ) *+,.
(3.1)
CHAPITRE III La Segmentation d’images Médicales
57
Dans un contexte médical, les régions Ri correspondent aux différentes structures
anatomiques constituant les régions d’intérêt. La détermination automatique du nombre de
région N reste néanmoins une vraie problématique.
Le prédicat P est utilisé pour tester l’uniformité des ensembles Ii. Ces sous-ensembles
constituent les régions de l’image. Une segmentation de l’image est donc sa décomposition en
un ensemble de région uniforme. Le critère d’uniformité restant à déterminer.
La première condition implique que tout pixel ou voxel de l’image appartient à une et une
seule région. En d’autre terme cela signifie que l’algorithme de segmentation ne doit pas se
terminer avant d’avoir traité tous les points. La seconde condition signifie que les régions
doivent être disjointes, Il n’y a donc aucun chevauchement ou intersection entre régions. La
troisième condition implique que chaque région est uniforme, selon le prédicat d’uniformité
défini au préalable. Enfin, la quatrième et dernière condition est une condition de maximalité
indiquant que la fusion de deux régions adjacentes ne doit pas être uniforme.
Le prédicat d’uniformité P est à la base de la définition des régions, il doit être choisi à travers
des descripteurs de pixel susceptibles de permettre une bonne identification des objets. Parmi
ceux-ci on peut citer : le niveau de gris, la couleur, la texture, la géométrie, et d’autres
paramètres pertinents [22][26].
II.2. Objectif de la segmentation :
L’objectif de la segmentation est de permettre l’exploitation du contenu de l’image pour
l’interprétation et l’aide au diagnostic en imagerie médicale et ce pour une éventuelle
localisation ou reconnaissance ou une mesure des évolutions (suivi thérapeutique).
La segmentation d’image fait partie d’une chaine de traitement que l’on peut résumer en
quatre étapes principales :
• Acquisition des images : Processus de production d’images exploitables par
ordinateur.
• Prétraitement des images : Amélioration des images possédant du bruit, un faible
contraste ou tout autre défaut.
• Segmentation des images : Construction d’une image symbolique en générant des
régions homogène selon le critère d’uniformité défini au préalable.
• Analyse des images : extraction des paramètres ou des fonctions représentatives de
l’image ou des régions.
CHAPITRE III La Segmentation d’images Médicales
58
II.3. La dimensionnalité : [12]
La dimensionnalité détermine si une méthode de segmentation opère sur un domaine
bidimensionnel ou tridimensionnel de l’image à segmenter. Traditionnellement les méthodes
2D sont appliquées aux images 2D alors que les méthodes 3D aux volumes 3D. Cependant,
les méthodes 2D peuvent séquentiellement opérer sur toutes les coupes d’une image 3D
séparément sans tenir compte des résultats obtenues sur les coupes précédentes. La
reconstruction du volume d’intérêt est réalisé par empilement des coupes segmentées ce qui
forme ainsi un volume d’intérêt constitué par la superposition des régions d’intérêt. Ce type
de segmentation est utilisé pour des raisons pratiques telles la facilité de mise en œuvre, la
faible complexité de calcul et les exigences mémoire réduites. Néanmoins cette approche
présente un inconvénient majeur ; en effet cette technique ne tient pas compte de
l’information spatiale de profondeur portée par les voxels ce qui peut conduire à une
mauvaise segmentation. Problème que les méthodes de segmentation 3D contournent grâce à
une exploration du volume en profondeur.
III.4. Interaction et Validation : [23][48]
Dans tout processus de segmentation, le compromis entre l’interaction manuelle et la
performance est d’une considération importante. L’interaction manuelle peut grandement
améliorer la précision en intégrant les connaissances préalables de l’expert. Toutefois, pour
les études de population importante, cela peut être très laborieux en termes de temps.
Le type d’interaction requis par les méthodes de segmentation varient d’une délimitation
complètement manuelle d’une structure anatomique (segmentation manuelle), à la sélection
d’un point de semence pour une région. La différence entre ces type d’interaction est la
quantité de temps et d’effort requit, ainsi que le degré de formation requis par l’expert.
Notons cependant que mêmes les méthodes automatiques de segmentation nécessitent
généralement une certaine interaction permettant de spécifier les paramètres initiaux qui
peuvent affecter considérablement les performances de la segmentation.
La segmentation est un vaste sujet d’étude faisant partie des grands thèmes de recherches en
imagerie numérique. De nombreuse publications font état de segmentation il n’est cependant
guère possible de préférer une méthode de segmentations des autres ; en effet, pour valider
CHAPITRE III La Segmentation d’images Médicales
59
(3.2)
une segmentation d’une image, il faut disposer de la vérité terrain, or il n’est pas toujours aisé
de définir de manière objective ou commencent et ou se terminent les objets sur une image ;
De ce fait il peut exister plusieurs segmentations possibles d’une même image et elles sont
généralement subjectives.
Dans des applications pratiques de segmentation, des erreurs dans l'image segmentée sont
tolérées. De fait, si les images à segmenter sont complexes et que les algorithmes sont
entièrement automatiques, l'erreur est inévitable ou du moins fort probable. L'erreur entre
l'image segmentée et l'image de segmentation idéale (image de référence) peut être le meilleur
critère pour évaluer les performances des algorithmes. Dans le cas des images synthétiques,
la segmentation de référence est très fiable et est d'une grande précision. Pour des images
naturelles, la segmentation de référence est subjective, vue l'impact du facteur humain.
L’indice de Jaccard [43][44] est un coefficient dont le but et de mesurer la similarité entre
deux ensembles de données. Ce coefficient représente le quotient de l’intersection des deux
ensembles par leur union. Formellement, il est défini comme suit :
./, 0 |/ 0||/ 0|
Dans un contexte segmentation d’images, l’ensemble A représente une région dans la
segmentation à évaluer et l’ensemble B représente cette même région dans la segmentation de
référence (Segmentation manuelle). Ainsi, la similarité entre deux segmentations est
représentée par l’ensemble des indices de Jaccard exprimant les taux de correspondance de
chaque région des deux segmentations.
III. Approches de Segmentations :
Nous présentons dans cette section diverses techniques connues de segmentation en les
organisant selon l’approche qui les régit et les résultats obtenus. Ainsi nous avons retenue
trois approches [23] que sont les méthodes de segmentation utilisant les pixels comme critère
de décision, celles basées sur les régions, et enfin les méthodes basées sur les contours.
CHAPITRE III La Segmentation d’images Médicales
60
III.1. Pixel:
Cette approche consiste à regrouper les pixels de niveaux semblables, indépendamment des
relations de connexité qui peuvent les lier. La technique de seuillage d'histogramme , qui
constitue la majorité des méthodes de segmentation par classification, s'appuie sur l'hypothèse
que les régions de niveaux de gris uniforme produisent des modes suffisamment significatifs
dans les histogrammes de l'image pour que l'on puisse les caractériser directement par la
valeur limite des pixels qui les composent. Il suffit alors de seuiller l'image entre cette limite
pour en extraire les régions.
La figure III.3. illustre une image (b) dont l’histogramme (a) est bimodal ; en effet, nous
pouvons remarquer que l’image contient deux modes distincts : les objets d’intensités claires
et le fond de l’image plus sombre. Ainsi le seuil de binarisation (c) à choisir se situe au niveau
de la vallée qui sépare ces deux modes.
Figure III.3 Segmentation d’une image synthétique par seuillage
Cette approche travaille donc essentiellement sur l’histogramme de l'image par seuillage. Le
seuillage a pour objectif de segmenter une image en plusieurs classes en n'utilisant que
l'histogramme. On suppose donc que l'information associée à l'image permet à elle seule la
segmentation, c'est-à-dire qu'une classe est caractérisée par sa distribution de niveaux de gris.
Le seuillage est une technique qui permet de classer les pixels en deux catégories, ceux dont
la mesure est inférieure au seuil et ceux dont la mesure excède ou égale le seuil.
Le seuillage peut être appliqué sur toute l’image (Seuillage Global), ou seulement sur une
portion de l’image (Seuillage Local). Il existe aussi une technique de seuillage qui consiste à
partitionner l’image en sous images et de traiter chacune avec son propre seuil (Seuillage
Adaptatif). Le choix des dimensions de chaque sous image sera donc critique.
CHAPITRE III La Segmentation d’images Médicales
61
Dans ces technique le choix d’une valeur de seuil est critique : Avec un intervalle trop large,
on obtient des faux positifs, c’est à dire l'image seuillée contient des pixels qui ne font pas
partie des objets d'intérêt ; généralement il s'agit de bruit ou des structures d'une autre nature
qui ont un niveau de gris proche de celui des objets recherchés.
Avec un intervalle trop étroit, on obtient des faux négatifs, c’est à dire certains objets d'intérêt
n'apparaissent pas ou que partiellement dans l'image seuillée. Plusieurs techniques ont été
proposées pour la détermination automatique de la valeur du seuil. Ces techniques utilisent
généralement des méthodes d’analyse de données pour trouver automatiquement la valeur du
seuil qui sépare au mieux les objets du fond. Parmi ces méthodes nous pouvons citer
l’algorithme de Otsu dont le principe est de choisir la valeur du seuil qui maximise la variance
interclasse. Cette technique ne nous donne pas seulement la valeur du seuil qui permet de
séparer les classes, mais aussi le degré de dissimilarité qui sépare les classes. Notons que
l’algorithme d’Otsu ne s’applique que dans le cas de segmentation en deux régions. Une autre
méthode consiste à rechercher les vallées significatives dans l’histogramme, en considérant
qu’une vallée correspond à la frontière des régions.
La principale limitation des algorithmes cette approche est qu’ils ne tiennent pas compte de
l’information spatiale portée par l’image, rendant ainsi l’algorithme très sensible face au
bruit et aux irrégularités dans l’image. Ces artefacts affectent considérablement
l’histogramme de l’image, de ce fait, la séparation entre les classes devient plus difficile. Le
seuillage est donc souvent employé comme une première étape de prétraitement dans une
séquence d'opérations de traitement d'image et plus particulièrement pour les images
mammographiques où l’on peut généralement distinguer deux principales classes de tissue les
tissues sains et les tissues tumoraux.
III.2. Région :
Dans cette approche, c’est la similitude des points connexes qui est favorisée. Les points
connexes ayant des propriétés similaires vont être réunis dans le même ensemble. Le choix de
ces propriétés détermine le critère de segmentation. Il est en effet nécessaire de définir un
critère d’homogénéité d’une région dans l’image. Le critère qui définit l’homogénéité est
donc un point déterminant des performances de la segmentation. Les principaux critères
utilisés sont niveau de gris la couleur ou la texture.
CHAPITRE III La Segmentation d’images Médicales
62
Les algorithmes de cette méthode correspondent généralement aux algorithmes
d'accroissement ou de découpage de région.
L'accroissement de région est une méthode bottom-up : on part d'un ensemble de petites
régions uniformes dans l'image (de la taille d'un ou de quelques pixels) et on regroupe les
régions adjacentes de même couleur jusqu'à ce qu'aucun regroupement ne soit plus possible.
Le découpage de région est un processus top-down : on part de l'image entière que l'on va
subdiviser récursivement en plus petites régions tant que ces régions ne seront pas
suffisamment homogènes. Les algorithmes dits Split and Merge sont un mélange de ces deux
méthodes.
III.2.1. Décomposition/Fusion (Split/Merge)
Cette technique enchaîne les 2 phases suivantes [6]:
• Découper itérativement l'image jusqu'à avoir des blocs contenant exclusivement des
pixels similaires.
• Regrouper les blocs voisins s'ils sont similaires
Les deux phases sont nécessaires afin de garantir que les régions obtenues sont à la fois
homogènes et également les plus grandes possibles.
• La décomposition :
La méthode couramment utilisée consiste à faire une dichotomie par zones de l'image. Le
principe consiste à tester la validité du critère de segmentation sur les différentes zones de
limage. Si le critère est validé l’algorithme s’arrête, sinon la zone considérée est décomposée
en zones plus petites jusqu'à obtention d’une zone qui valide le critère. Pour cela, l’algorithme
commence par définir une zone de la taille de l'image, Si la zone est homogène alors la
décomposition s’arrête. Sinon, la zone est ainsi découpée en 4 zones. Le contenu de chaque
zone est examiné et ainsi de suite jusqu'à ce qu'il n'y ait plus besoin de décomposer les zones :
CHAPITRE III La Segmentation d’images Médicales
63
Algorithme III.1 : Algorithme récursif de la segmentation par décomposition
L'implémentation la plus simple pour cette méthode consiste à définir une structure d'arbre
appelée quaternaire (QuadTree). C'est un arbre dans lequel chaque nœud représente un bloc.
Chaque nœud possède donc 0 sous-nœud (bloc homogène) ou 4 sous-nœuds (bloc non-
homogène).
La figure III.4 présente l’application de l’algorithme de décomposition sur une image binaire
en considérant la couleur comme critère de similarité. L’arbre quaternaire issu de la
décomposition de l’image est représenté dans la figure III.5.
Figure III.4 : Décomposition d’une image binaire
DECOMPOSITIONDECOMPOSITIONDECOMPOSITIONDECOMPOSITION (Zone) DebutDebutDebutDebut SiSiSiSi Critère(Zone)=VRAI AlorsAlorsAlorsAlors Arrêt SinonSinonSinonSinon Diviser la Zone en 4 : Z1, Zz,Z3 et Z4 Pour Pour Pour Pour Chaque Zone Zi (i=1 à 4) FAIREFAIREFAIREFAIRE DECOMPOSITIONDECOMPOSITIONDECOMPOSITIONDECOMPOSITION(Zi) FinPourFinPourFinPourFinPour FinSiFinSiFinSiFinSi FinFinFinFin
CHAPITRE III La Segmentation d’images Médicales
64
Figure III.5 : Arbre quaternaire issu d’une décomposition
Dans l’exemple la figure III.4 nous pouvons remarquer que l’algorithme entraine la création
de 22 régions distinctes alors qu’il est clair que l’image initiale n’en comporte que deux. Ainsi
Au final, l'image va contenir de nombreux petits blocs jointifs et similaires. Ce phénomène,
inhérent à la méthode de décomposition, s'appelle la sur-segmentation (over segmentation).
La prochaine étape de l'algorithme va donc être de regrouper les blocs jointifs et similaires en
une seule région.
• La fusion :
Cette étape à pour objectif d'identifier les régions qui composent l'image en regroupant les
blocs jointifs et similaires. Il faut tout d'abord définir le critère de similarité entre blocs. Le
plus simple est d'étendre la définition de similarité entre pixels définie lors de l'étape de
décomposition. Ainsi, on peut assimiler un bloc à un " gros " pixel en calculant sa
valeur/couleur moyenne, et en utilisant le graphe d'adjacence pour naviguer vers les blocs
voisins. Cet algorithme construit les régions une par une, en regroupant progressivement les
blocs jointifs autour d'un bloc de départ. L'algorithme amalgame les blocs adjacents à la
région, formant ainsi une région de plus en plus grande
CHAPITRE III La Segmentation d’images Médicales
65
III.2.2. Croissance de région (Region Growing) :
Cette technique consiste à faire progressivement croître les régions autour de leur point de
départ [49]. L'algorithme se présente en deux étapes:
1. Trouver les points de départ des régions.
2. Faire grossir les régions par agglomérations des pixels voisins.
• Point de départ :
Le choix des points de départ est l'étape est la partie critique de l'algorithme. En effet, l'étape
de croissance va utiliser une mesure de similarité pour choisir les pixels agglomérer. Si le
point de départ est situé dans une zone non homogène, la mesure de similarité va produire de
fortes variations et la croissance va s'arrêter très tôt.
Par conséquent, il convient de choisir les points de départs dans des zones les plus
homogènes possibles (figure II.17). Pour trouver ces zones, on peut réutiliser le principe de
décomposition utilisé dans l'algorithme split/merge. Comme la décomposition finale nous
donne une liste de blocs homogènes, il suffit de choisir le centre des plus gros blocs pour
avoir de bons points de départ.
• Croissance :
Cette étape à pour objectif de faire grossir une région en agglomérant des pixels voisins. Les
pixels sont choisis afin de maintenir l'homogénéité de la région. Pour cela, nous devons
définir un indicateur d'homogénéité. Les pixels voisins sont ajoutés à la région si l'indicateur
d'homogénéité reste vrai. La croissance s'arrête lorsqu'on ne peut plus ajouter de pixels sans
briser l'homogénéité
III.2.3. Ligne de partage des eaux : [24]
Cette technique consiste à faire grossir simultanément toutes les régions jusqu'à ce que
l'image soit entièrement segmentée. Cette technique tire son nom d'une analogie avec la
géophysique. On peut en effet considérer les valeurs d'intensité des pixels d'une image comme
une information d'altitude. Dans ce cas on peut représenter cette image (appelée carte
d'élévation) comme un terrain en 3 dimensions. Le principe est alors de remplir
CHAPITRE III La Segmentation d’images Médicales
66
progressivement d'eau chaque bassin du terrain. Chaque bassin représente une région.
Lorsque l'eau monte et que deux bassins se rejoignent, la ligne de rencontre (la ligne de
partage des eaux) est marquée comme une ligne de frontière entre les deux régions. ( figure
III.6)
Figure III.6 : Ligne de partage des eaux entre 2 bassins
L'algorithme se compose de deux étapes :
1. Générer une carte d'élévation à partir de l'image de départ
2. Remplir progressivement les bassins
La carte d'élévation est une image dont les valeurs représentent une altitude. Pour construire
cette image nous allons partir du gradient de l'image. Dans la carte d'élévation, on assigne
l'altitude la plus élevée (HMAX) aux pixels ayant un fort gradient ainsi qu'aux bords de
l'image.
Il existe de nombreux algorithmes permettant de réaliser le remplissage des bassins. Parmi
eux il existe un algorithme utilisant la technique de croissance de région vue précédemment.
Dans cet algorithme, le remplissage des bassins est un procédé itératif qui consiste à élever
progressivement le niveau de l'eau de zéro à HMAX. A chaque itération, on doit remplir les
bassins existants (extension des régions) et éventuellement créer les nouveaux bassins
(nouvelles régions).
III.3. Contour :
Contrairement à l’approche région, cette approche ignore les relations qui peuvent exister
entre les régions de l’image, elle comprend les techniques de détection de contours. Un
contour est un ensemble de pixels formant une frontière entre deux ou plusieurs régions
CHAPITRE III La Segmentation d’images Médicales
67
voisines, l'épaisseur d'un contour est d'un ou plusieurs pixels et il est défini par une variation
"brusque" de caractéristique, la figure III.7 montre quelques modèles de contours. Un contour
peut être défini comme une marche d'escalier si le contour est net, comme une rampe si le
contour est plus flou ou comme un toit s'il s'agit d'une ligne sur un fond uniforme.
Figure III.7 : Modèles de Contours
La recherche des contours dans une image numérique est un des problèmes les plus étudiés
depuis l'origine des travaux sur l'imagerie numérique, les approches contours travaillent sur
les discontinuités de la fonction d'intensité dans les images afin de déterminer les contours des
régions. La notion de contour étant reliée à celle de variation, il est évident qu'une telle
définition nous amène tout naturellement vers une évaluation de la variation en chaque pixel.
Nous exposons dans ce qui suit les différentes méthodes de détection de contours.
III.3.1. Modèle Dérivatifs :
Un contour dans une image peut être défini comme une zone de l’image où l’intensité des
pixels change brusquement. Le principe de la détection de contours repose donc sur l'étude
des dérivées de la fonction d'intensité dans l'image.
La figure III.8 illustre le modèle de contour de type marche (monodimensionnel) ainsi que sa
dérivée première et seconde.
Une dérivation du premier ordre présentera un maximum pour le contour ; une dérivée
seconde présentera un passage par zéro.
CHAPITRE III La Segmentation d’images Médicales
68
Figure III.8 : Détection de contour (Monodimensionnel)
Pour déterminer la position des éventuels contours on utilise les méthodes dérivatives.
L'image dérivée met en évidence les variations de niveau de gris. L'approche dérivative
consiste à balayer une image avec une fenêtre définissant la zone d'intérêt. A chaque position,
un opérateur est appliqué sur les pixels de la fenêtre afin d'estimer s'il y a une transition
significative au niveau de l'attribut choisi. Le résultat obtenu sera alors une image binaire
constituée de deux classes: les pixels des contours et les pixels des non-contours. A partir des
pixels susceptibles d'appartenir à un contour.
On peut classer les méthodes dérivatives selon deux approches:
• Approche Gradient.
• Approche Laplacien.
II.3.1 Le gradient :
Le gradient est un opérateur dérivatif du premier ordre [38], le calcul du gradient en un pixel
d’une image donne un vecteur caractérisé par son amplitude et sa direction. L'amplitude est
directement liée à la quantité de variation locale des niveaux de gris. La direction du gradient
est orthogonale à la frontière qui passe au point considéré. Soit I une fonction continue qui
représente l'intensité de chaque point d’une image, le gradient de I en un point est le vecteur
V définit comme suit dans un contexte 2D
CHAPITRE III La Segmentation d’images Médicales
69
(3.6)
(3.4)
(3.5)
(3.3)
(3.7)
(3.8)
V(,, W XY,, WY,Y,, WYW Z
Et :
V,, W, [ \]
_`a,b,c_a_`a,b,c_b_`a,b,c_c def
Dans un contexte 3D.
Pour calculer ce gradient en chaque point de I, on effectue, généralement, le produit de
convolution de I avec un opérateur de dérivation fournissant des masques ga ,gb et gc
correspondant aux directions verticale, horizontale et la direction de profondeur tels que :
h_`a,b_a ia,, W ga j ,, W_`a,b_b ib,, W gb j ,, Wk
Un ordre d’interpolation élevé implique une haute précision d’estimation mais aussi une
complexité calculatoire importante, d’où la nécessité d’un compromis entre qualité et temps
d’exécution. Lors d’une interpolation d’ordre n, est généralement exprimé par les
fonctions B-Spline [29][41][30] de la manière suivante :
)~()()~()~(
kskCsIsSk nreca −⋅=∑ ∈
β
Où nβ désigne la fonction B-Spline d’ordre n. Les coefficients C(k) sont calculés à partir des
valeurs Ireca(k) dans le support de s~noté )~(sS [10]. La figure IV.9 illustre les fonctions
BSpline d’ordre 0,1,2 et 3.
Figure IV.9 : Fonction B-Spline d’ordre 0,1,2 et 3
VI. Les modèles de transformation :
Le recalage d’image est le processus qui consiste à déterminer la différence entre deux
images, cette différence peut être une combinaison de translation, de rotation et de
changement d’échelle, etc.
La figure IV.10 montre les transformations géométriques les plus courantes qui sont les
transformations rigides (a), affines (b) et élastiques (c). Nous pouvons ainsi classer les
(4.12)
CHAPITRE IV Le Recalage d’images
99
méthodes de recalage en deux catégories : le recalage rigide (linéaire) et le recalage non-
rigide (non linéaire) selon que la transformation à rechercher est rigide/affine ou non rigide.
Figure IV.10 : Différents modèles de transformation
Dans ce qui suit, nous présenterons brièvement les différentes classes de transformations ainsi
que leur implication dans le recalage des images médicales. Nous introduirons les modèles
linéaires, puis les modèles non-linéaires
VI.1. Le recalage Rigide : (linéaire)
VI.1.1. Les transformations rigide :
La transformation 3D globale la plus simple à envisager est la transformation rigide. Cette
transformation est à priori appropriée au recalage d’images cérébrales monomodalité et
monopatient (le crâne étant considéré comme un objet 3D rigide). Dans ce type de
transformation, l’image est considérée comme un corps rigide où seules les translations et
rotations sont autorisées
La transformation rigide 3D implique six paramètres ; trois (03) paramètres de translation <d, <e et <f et trois (03) paramètres de rotation : gd, ge et gf représentant respectivement les
translations et les rotations sur les axes X, Y et Z.
La relation entre les coordonnées (x,y,z) d’un point d’une image et les coordonnées
correspondant (9h, :h, ih) dans l’autre image est donnée par le système d’équations suivant :
CHAPITRE IV Le Recalage d’images
100
j9h:hih1 k l ( m ( n9:i1o
Où R et T désignent respectivement les matrices de rotation et de translation définie comme
suit :
l j1 0 0 00 cos gd sin gd 00 H sin gd cos gd 00 0 0 1k jcos ge 0 H sin ge 00 1 0 0sin ge 0 cos ge 00 0 0 1k j cos gf sin ge 0 0H sin ge cos ge 0 00 0 1 00 0 0 1k
m j1 0 0 <d0 1 0 <e0 0 1 <f0 0 0 1 k
En imagerie médical, la transformation rigide peut uniquement être utilisée pour recaler deux
images ne présentant pas d’évolution de structures (croissance du crâne, ou modification de la
position ou du volume d’une sous-structure) et dont les imageurs n’ont pas induit de
distorsions. Néanmoins, on peut se servir d’une telle transformation comme bonne
approximation d’une transformation faiblement élastique.
VI.1.2. Les transformations affines :
Les transformations affines sont plus générales que les transformations rigides. Contrairement
aux transformations rigides, aucune restriction n’est faite sur les éléments de la matrice de
transformation, ce qui permet ainsi de réaliser des distorsions plus complexes de l’image
telles que l’étirement, le cisaillement ou le changement d’échelle, tout en conservant certaines
propriétés3 géométriques de l’image
Une transformation affine 3D est définie par douze coefficients "[U de la matrice de
transformation. La relation entre les coordonnées dans une image et les coordonnées dans
l’autre image est donnée par le système d’équations linéaire suivant :
3 C’est Euler, en 1748, qui est à l’origine du terme « transformation affine », car dit-il, « deux courbes images
l’une de l’autre par une telle transformation présentent entre elles une certaine affinité ».
(4.13)
(4.14)
(4.15)
CHAPITRE IV Le Recalage d’images
101
j9h:hih1 k n"rr "r0 "r1 "r."0r "00 "01 "0."1r "10 "11 "1.0 0 0 1 o ( n9:i1o
La matrice de transformation peut être décomposée en une matrice B :
s )"rr "r0 "r1"0r "00 "01"1r "10 "11,
et le vecteur m "r., "0., "1.h représentant le vecteur de translation.
Si B=I (matrice d’identité) la transformation se réduit donc à une translation. Dans le cas
particulier où B est une matrice de rotation, nous retrouvons une transformation rigide.
Si B=Diag(Sx,Sy,Sz) la transformation est une mise à l’échelle avec les facteurs Sx ,Sy et Sz
selon les axes X,Y et Z respectivement.
VI.2. Le recalage non rigide (non linéaire) :
Dans un processus de recalage d’images médicales, les transformations que nous venons de
voir (rigide, affine) ne permettent pas de prendre en considération les déformations dues aux
mouvements physiologiques (respiration, battement de cœur, changement de morphologie)
[34]. Les transformations élastiques ou non-rigides ont été introduites afin de palier à ce
problème.
Comparée aux méthodes de transformation rigide, la transformation élastique offre un DDL4
plus important. L’une des transformations élastiques est la transformation polynomiale.Nous
pouvons par exemple citer le modèle de transformation quadratique régit par un polynôme du
second degré :
j9h:hih1 k n"rr … "r1 "r."0r … "01 "0."1r u "11 "1.0 0 0 1 o ( j91:1v1 k
4 Degré de Liberté (Degree Of Freedom) représente le nombre de variables impliquées dans la transformation
(4.16)
(4.17)
(4.18)
CHAPITRE IV Le Recalage d’images
102
Ainsi la transformation ci-dessous est caractérisée par un DDL de 30. De manière similaire,
ce modèle de transformation peut être étendu à un degré polynomial d’ordre supérieur tel le
modèle polynomial du troisième (DDL=60), quatrième (DDL=105) et cinquième ordre
(DDL=168). Bien que les approches polynomiale offre un DDL plus important, elles ne sont
cependant pas utilisables dans un contexte de recalage non-rigide d’images médicales ; en
effet leur capacité à tenir compte des déformations locales dans les structures anatomiques est
très limitée car elles sont modélisées par un changement globale de la forme. De plus les
modèles polynomiaux d’ordre important ont tendance à introduire des artefacts tels que des
oscillations.
L’une des techniques de déformation les plus utilisées pour le recalage non-rigide est la
déformation basée sur une grille [52][51][16] : une grille régulière est superposée à l’image
formant ainsi un ensemble de point sk dits points de contrôle régulièrement espacée par une
distance σ. Chaque point de contrôle sk est caractérisé par un déplacement pk. La valeur de
déplacement en chaque point de l’image est déterminée par interpolation, l’interpolation B-
Spline cubique est souvent employée afin de garantir une déformation élastique cohérente
[27]:
)()()(
3∑∈
−⋅+=
sSs
kk
k
sspssh
σβ
S(s) dénote le support du point s, il représente l’ensemble de points de contrôle voisins de s.
La figure IV.11 illustre la déformation BSpline d’ordre 3 d’une grille régulière
Figure IV.11 : Déformation B-Spline d’ordre 3 d’une grille régulière
(4.19)
CHAPITRE IV Le Recalage d’images
103
VII. Optimisation :
La résolution du problème d’optimisation de l’équation (2.1) revient à déterminer le vecteur
de paramètres µ pour lequel le coût de la transformation est minimal.
La méthode d'ordre 0 dite recherche exhaustive consiste à échantillonner à intervalle régulier
l'ensemble de l'espace des paramètres et de retenir la solution optimale. Bien qu'elle permette
d'accéder au minimum global avec une précision définie par le pas d'échantillonnage, elle est
en pratique rarement utilisée en raison du nombre important de paramètres à estimer en
particulier pour les transformations élastiques, une recherche exhaustive est inenvisageable.
Afin d'augmenter la vitesse de convergence vers le minimum, certains algorithmes utilisent
des caractéristiques différentielles (gradient et/ou hessien) du critère. Les méthodes de
descente de gradient et du gradient conjugué utilisent l'information portée par le gradient. Les
méthodes dites de Newton utilisent quant à elles l'information portée par le hessien.
Cependant, le calcul du hessien pouvant s'avérer délicat, des méthodes ont recours à une
approximation du hessien à partir du gradient comme par exemple la méthode de quasi-
Newton.
Dans un contexte de recalage d’images, l’optimisation est communément réalisée à travers un
processus itératif de la manière suivante :
kkkk dahh +=+1
Où dk représente la direction de recherche à l’itération k. ak est le facteur de gain, pouvant
être constant tout au long des itérations ou variable. Le produit kkda définit le pas de
recherche à l’itération k. Ainsi à chaque itération, une nouvelle solution 1+kh est générée à
partir de la solution actuelle kh et du pas de recherche.
La figure IV.12 illustre la valeur du coût E entre deux IRM en fonction du paramètre de
transformation ),(ˆyx tth = , les flèches représentent le pas de recherche en direction de
l’optimum.
(4.20)
CHAPITRE IV Le Recalage d’images
104
Figure IV.12 : Optimisation itérative du coût de translation entre deux IRM
VII.1. La Descente de Gradient :
L’algorithme de descente de gradient consiste à prendre la direction inverse du gradient du
coût pour direction de recherche :
h
Eahh kkk ∂
∂−=+1
Le facteur de gain est généralement exprimé par une fonction décroissante de k ce qui
implique un pas de recherche initial important qui décroit tout au long des itérations faisant
ainsi augmenter la précision.
VII.2. Quasi-Newton :
Les méthodes de Quasi- Newton sont inspirées du célèbre algorithme de Newton-Raphon
défini par :
(4.21)
CHAPITRE IV Le Recalage d’images
105
wb0 w H x2yz0 ||
Où 2y représente la matrice hessienne de la mesure de ressemblance E, évaluée à la
solution w. L’utilisation de la dérivée du second ordre permet théoriquement une meilleure
convergence vers le minimum que l’algorithme de descente de gradient. Cependant le calcul
de la matrice hessienne ainsi que de son inverse est très couteux particulièrement pour les
problèmes d’optimisation d’ordre important tel le recalage non-rigide.
Les méthodes de Quasi-Newton contournent ce problème en faisant une approximation de
l’inverse de la matrice hessienne :
?w ~ x2yz0
L'idée principale de cette méthode est d'éviter de construire explicitement la Hessienne et de
construire à la place une approximation de l'inverse de la dérivée seconde de la fonction à
minimiser, en analysant les différents gradients successifs
Ainsi le calcul de la transformation à chaque itération est exprimé par l’équation suivante :
wb0 w H "w?w ||
Plusieurs méthodes permettant la construction de la série 5>?w=> ont été proposées dans la
littérature, parmi elles nous citons la formule DFP (Davidon–Fletcher–Powell) ainsi que la
méthode BFGS (Broyden-Fletcher-Goldfarb-Shanno).
VII.3. Gradient Conjugué Non-Linéaire :
Le développement des méthodes de gradient conjugué a commencé avec le gradient linéaire
conjugué. Ces algorithmes étaient essentiellement appliqués pour la résolution des systèmes
d’équations linéaires. Le gradient conjugué non-linéaire (GCN) est une extension de cet
algorithme adaptée pour la minimisation de fonctions non-linéaires. L’algorithme GCN suit le
(4.22)
(4.23)
(4.24)
CHAPITRE IV Le Recalage d’images
106
même schéma général itératif de l’équation (4.20). La direction de recherche dk est exprimée
par une combinaison linéaire faisant intervenir à la fois l’expression du gradient ainsi que la
direction de recherche précédente :
8w H || Kw8w0
Plusieurs expressions pour le coefficient Kw ont été proposées dans la littérature :
" H " Kw wh · w8hw0 · w H w0h
2$<$$ H <$#$ Kw wh · w H w08hw0 · w H w0h
La notation w ||y a été introduite pour un souci de clarté.
Une approche hybride combinant ces deux expressions a été proposée dans [56] :
Kw max 0, minKw, Kw
(4.25)
(4.26)
(4.27)
(4.28)
CHAPITRE IV Le Recalage d’images
107
VIII. Conclusion :
Nous avons défini le long de ce chapitre le recalage d’images en présentant sa problématique,
son contexte en imagerie médicale et sa formulation mathématique à travers la notion de
transformation géométrique de mesure de similarité et d’algorithme d’optimisation.
Après ce tour d’horizon sur différentes techniques de recalage, nous pouvons conclure sur la
diversité des approches proposées pour recaler un jeu d’images et sur la complexité ainsi que
la subjectivité du choix de la technique la plus adaptée à ce jeu de données. En effet, ce choix
est complexe et porte sur les primitives à extraire, le type de la transformation géométrique à
considérer, le critère de similarité à exploiter et enfin la stratégie d’optimisation à adopter.
Pour la résolution du problème de recalage, deux approches principales ont été proposées. Le
premier schéma a concerné l’approche géométrique. Trois méthodes appartenant à cette
classe ont été données : l’appariement de points, de courbes et de surfaces. Les limites de
cette approche ont été illustrées en démontrant son inadéquation au cadre multimodal du
recalage en particulier dans un contexte multimodal anatomo-fonctionnel. De ce fait, nous
nous sommes retournés vers l’approche iconique qui s’avère la plus adaptée dans notre
contexte. (Recalage ATLAS/TEP)
L’objectif principal de notre projet étant la segmentation d’image TEP en intégrant les
connaissances à priori sur l’anatomie cérébrale, nous proposons une méthode de segmentation
par recalage entre un Atlas anatomique cérébrale et le volume TEP à segmenter. La
méthodologie que nous avons adoptée ainsi que les détails de conception sont présentés dans
le chapitre suivant.
CHAPITRE V Méthodologie et Conception
108
CHAPITRE V
Méthodologie et Conception
CHAPITRE V Méthodologie et Conception
109
Introduction :
Dans ce chapitre nous présentons les principes de notre approche ainsi que les principales
fonctionnalités de l’outil de nous avons élaboré.
Dans la section 1 nous exposons le principe de notre approche de segmentation à savoir la
segmentation par atlas. Dans la section 2 nous présentons les données utilisés pour
l’élaboration nos tests, ces données représentent l’atlas utilisé ainsi que les volumes TEP à
segmenter au format Analyze. Ce format est étudié de manière plus formelle dans la section 3.
Les résultats de notre approche de segmentation sont présentés dans la section 4, dans un
premier lieu nous présentons les résultats de manière visuelle puis, dans un second lieu nous
comparons les différents résultats obtenus par moyen d’indice de Jaccard selon différents
métrique de similarités (SSD, CC et MI)
I. Présentation de notre approche :
L’objectif de notre travail est la segmentation basée atlas d’images TEP 3D. L’approche que
nous proposons consiste à recaler le volume TEP à segmenter avec un Atlas anatomique
cérébral. L’image TEP représente ainsi l’image fixe, l’atlas représente l’image mobile qui
sera déformée de manière à prendre la forme du volume à segmenter. Notre approche est
constitué de trois étapes : dans un premier lieu, un recalage affine est établi ; ce qui permet
d’avoir un alignement global des volumes. Le paramètre obtenu de la transformation affine
Affineµ sert ensuite comme initialisation pour la seconde étape qui est le recalage élastique. Ce
dernier est établi afin de prendre en considération les déformations locales entre les
volumes.(figure V.1)
Dans la troisième étape nous appliquons les transformations obtenues précédemment Affineµ et
Elastiqueµ séquentiellement sur chacun des deux atlas segmentés selon une interpolation au
plus proche voisin (d’ordre 0), cela afin de préserver les mêmes intensités après segmentation.
Nous obtenons ainsi une segmentation du volume TEP. La minimisation de dissimilarité est
réalisée à travers un algorithme itératif de descente de gradient. Nous avons intégrer
ELASTIX à notre implémentation. Cet outil est un Framework OpenSource. Elastix se
compose d'une collection d'algorithmes (Calcul de métrique, Interpolation, Transformation)
dédiés au problème de recalage d’images médicales.
La conception modulaire d’Elastix permet à l'utilisateur de rapidement configurer, tester et
comparer les méthodes de recalage pour une application spécifique. Une interface de ligne de
commande permet le traitement automatisé au moyen de scripts
CHAPITRE V Méthodologie et Conception
110
Figure V.1 : Etapes 1 et 2 de notre procédé.
ATLAS TEP
RECALAGE RIGIDE
µAffine
TRANSFORMATION
ATLAS aligné
RECALAGE ELASTIQUE
µElastique
CHAPITRE V Méthodologie et Conception
111
L’optimisation est réalisée à travers l’algorithme de descente de gradient qui selon la
littérature est le plus adapté pour les problèmes de recalage d’images.
II. Les Données :
II.1. L’atlas :
L’atlas utilisé provient du laboratoire d’imagerie neurologique LONI1 d’UCLA et est fourni
avec deux volumes segmentés : Un volume segmenté en tissus : Matière blanche, grise et
liquide céphalorachidien (Figure V.2). Le second volume est segmenté en lobes. La figure V.3
illustre différentes structures anatomiques ainsi que leurs intensités sur la coupe n° 100 du
second atlas.
Chacun des deux atlas est associé à un fichier texte étiquette faisant la correspondance entre
les intensités dans le volume et les ontologies cérébrales associées.
Figure V.2 : Atlas Segmenté en Tissus
Figure V.3 : Atlas Segmenté en Lobes
1 LONI Laboratory Of Neuro Imaging UCLA http://www.loni.ucla.edu/
CHAPITRE V Méthodologie et Conception
112
II.2. Volume TEP :
Nous avons effectué nos tests sur des données TEP cérébrales 64128128 ×× au format
Analyze, obtenues auprès de l’institut neurologique BIC2 de Montréal.
La figure V.4 illustre un des volumes TEP auquel nous avons effectué nos tests.
Figure V.4 : Coupes 1,10,20,30,40,50 et 60 d’un volume TEP
III. Le Format Analyze :
Le format ANALYZE permet de stocker un volume de coupes (IRM, PET, etc.) dans deux
fichiers distincts :
• L’entête HDR : Ce fichier contient seulement les informations du volume telles que
ses dimensions, le type de données utilisées dans le volume…etc. Ces informations
sont nécessaires lors de la lecture d’un volume.
• Le Fichier IMG : Ce fichier stocke les données utiles du volume, c'est-à-dire les
intensités des voxels.
Les deux fichiers (HDR et IMG ) doivent porter le même nom afin qu’une relation puisse
s’établir lors de la lecture d’un volume.
III.1. Le fichier d’entête HDR :
III.1.1. Structure :
La taille du fichier d’entête est de 348 octets où chaque octet représente une information
concernant le volume. La structure du fichier est illustrée dans le tableau 13 ci-dessous.
2 BIC McConnel Brain Imaging Center Montréal http://www.bic.mni.mcgill.ca/
CHAPITRE V Méthodologie et Conception
113
OFFSET ATTRIBUT TYPE/TAILLE DESCRIPTION
0 Size_of_hdr Int /4octets Indique la taille du fichier d’entête hdr.
38 Regular Char/2octet Vaut « r » pour indiquer que tous les volumes ont
les mêmes dimensions.
40 Dim0 Int/2octets Nombre de Dimension. Vaut généralement : 4
42 Dim1 Int/2octets Dim X : Largeur en pixel d’une coupe.
44 Dim2 Int/2octets Dim Y : Hauteur en pixel d’une coupe.
46 Dim3 Int/2octets Dim Z : Nombre de coupe dans le volume.
48 Dim4 Int/2octets Nombre de volume
50 à 55 Inutilisé
56 Vox_units Char/4octets Unité spatiale de mesure du voxel
60 à 69 Inutilisé
70 Datatype Int/2octets Indique le type de donnée utilisé(*)
72 Bitpix Int/2octets Nombre de bits par pixel pour représenter
l’intensité.
74 Inutilisé
80 Pixdim1 Float/4octets Largeur d’un voxel en mm
84 Pixdim2 Float/4octets Longueur d’un voxel en mm
88 Pixdim3 Float/4octets Epaisseur d’une coupe en mm
92 Inutilisé
112 Scale_Factor Float/4octets (**)
116 Zero_intercept Float/4octets
120 à
348 inutilisé
Tableau V.1 : Structure de Fichier HDR
(*)- L’attribut Data_Type : (Offset 70)
Cet attribut stocke le code du type de donnée utilisée pour les intensités des voxels, le tableau V.2 illustre le code associé à chaque type.
3 Source : Mayo Clinic Analyze 7.5 Format: http://www.mayo.edu
CHAPITRE V Méthodologie et Conception
114
Type Code Description DT_BINARY 1 1 bit par voxel (Intensités Binaires) DT_UNSIGNED_CHAR 2 8 bits par voxel DT_SIGNED_SHORT 4 16 bits par voxel DT_SIGNED_INT 8 32 bits par voxel DT_FLOAT 16 32 bits par voxel représenté en Float DT_COMPLEX 32 2*32 bits par voxel DT_DOUBLE 64 64 bits par voxel DT_RGB 128 Voxel en couleur (RGB)
Tableau V.2 : Codification des types utilisés pour représenter les intensités
Notons cependant que pour les volumes médicaux, les types communément utilisés sont : DT_Unsigned_Char (Sur 8 bits) et DT_Signed_Short sur (16 bits)
(**)- Les attributs Scale_Factor et Zero_Intercept : (Offsets 112 et 116 respectivement)
Ces attributs représentent les coefficients d’une fonction linéaire permettant de calculer l’intensité réelle d’un voxel en fonction de l’intensité brute dans le fichier IMG.
Il s’agit donc de la politique Little Endian qui est utilisé pour ce fichier. Dans le cas d’une politique Big Endian la valeur hexadécimale aurait été de (5C010000).
2-) L’attribut REGULAR : (Offset 38)
Valeur Hexadécimale Equivalent en Char 72 r
CHAPITRE V Méthodologie et Conception
117
L’attribut REGULAR vaut la valeur « r » ce qui signifie que tous les volumes ont les mêmes dimensions. (Si éventuellement il existe plus d’un volume dans le fichier)
3-) L’attribut Dim0 : (Offset 40, Nombre de dimensions)
Valeur Hexadécimale Equivalent Décimal 0004 4
4-) L’attribut Dim1 : (Offset 42)
Valeur Hexadécimale Equivalent Décimal 0040 64
5-) L’attribut Dim2 : (Offset 44)
Valeur Hexadécimale Equivalent Décimal 0040 64
6-) L’attribut Dim3 : (Offset 46)
Valeur Hexadécimale Equivalent Décimal 0040 64
7-) L’attribut Dim4 : (Offset 48 )
Valeur Hexadécimale Equivalent Décimal 0001 1
CHAPITRE V Méthodologie et Conception
118
La dimension du volume est donc la suivante : 64 x 64 x 64 x 1. Le volume contient donc 64 coupes où la dimension de chaque coupe est de 64 x 64 pixels.
8-) L’attribut Vox_Units : (Offset 56)
Valeur Hexadécimale Equivalent en Char 6d6d0000 mm
L’unité spatiale de mesure est le millimètre (mm).
9-) L’attribut Data_Type : (Offset 70)
Valeur Hexadécimale Equivalent Décimal 0004 4
Data_type vaut la valeur 4 ; par conséquent, le type de donnée utilisé pour représenter les intensités des voxel est DT_SIGNED_SHORT (Voir Tableau 2)
10-) L’attribut BitPix : (Offset 72)
Valeur Hexadécimale Equivalent Décimal
0010 16 16 bits sont utilisés pour représenter les intensités des voxels.
Dans la figure V.16 une hyperfixation est superposée à l’atlas recalée cette combinaison
permet non seulement de localiser la RdI dans l’atlas mais aussi de déterminer de manière
automatique le taux de participation de chaque structure anatomique dans la RdI.
Figure V.16 : Extraction d’une RdI et superposition sur l’atlas recalé
La figure V.17 illustre une capture de notre application après extraction d’une RdI , celle-ci
est localisée au niveau de 5 structures, le taux de participation de chacune d’entre elles est
calculé de manière automatique en terme de pourcentage (%) et de volume (mm3)
Figure V.17 : Localisation d’une RdI
CHAPITRE V Méthodologie et Conception
131
IV.2. Validation Quantitative :
Beaucoup de méthodes de segmentation ont été développées, mais il y a encore peu de
mesures de performance satisfaisante. Concevoir une bonne mesure pour la qualité de
segmentation est un problème dur, ceci est du au fait que l’évaluation d’une segmentation est
de nature subjective et peut différer d’un expert à un autre.
Une vérité terrain experte est un résultat de segmentation d'une image naturelle tracé
manuellement par un expert. Ce type de vérité terrain est souvent utilisé pour l’évaluation de
la qualité d’une segmentation.
Dans cette section nous comparons les résultats de segmentation obtenus par les métriques
suivantes :
• La mesure L2 (Moindres carrés).
• Le Coefficient de Corrélation CC.
• L’Information Mutuelle.
La méthode que nous avons adoptée pour évaluer de manière quantitative les résultats de la
segmentation consiste à compter le nombre de voxels corrects et faux dans le volume résultat
par rapport à la vérité terrain, nous pouvons ainsi calculer par la suite le pourcentage Tc de
voxels bien détectés.
Etant donné que nous ne disposions malheureusement pas de vérité terrain experte en image
TEP à cause de leur complexité, nous avons établi ces tests sur un volume IRM qui a été
soigneusement segmentée en tissus par un expert. Ces données ont été téléchargées au niveau
du site de OASIS4
La figure V.18 illustre le volume IRM en entrée (a), sa segmentation manuelle (b) ainsi que
les résultats de la segmentation selon les trois mesures de similarités. L’indice Tc
correspondant à chacune des trois méthodes est représenté dans la figure V.19.
Figure V.18 : Résultats de la segmentation selon les trois métrique L2, CC et l’IM.
4 OASIS : Open Access Series of Imaging Studies – Projet visant à rendre des données d'IRM du cerveau à la
libre disposition de la communauté scientifique. http://www.oasis-brains.org/
CHAPITRE V Méthodologie et Conception
132
Figure V.19 : Evaluation de l’indice Tc selon les trois métriques
V. Discussion :
Dans ce chapitre nous avons présenté notre approche de segmentation basée atlas qui consiste
à déterminer les transformations rigide et élastique qui conduisent au meilleur alignement
TEP / Atlas.
Nous avons dans un premier lieu présenté les résultats sous forme de fusion et de
triangulation. La fusion des volumes TEP / Atlas a permis d’une part d’évaluer de manière
visuelle les résultats du recalage qui se révèlent très concluant. D’une autre part la fusion offre
la possibilité d’intégrer les informations anatomiques dans le volume TEP facilitant ainsi de
manière conséquente l’établissement de diagnostic pour l’expert. La triangulation quant à elle
sert à se localiser dans le volume TEP dans un sens anatomique.
Puis, dans un second lieu nous avons évalué de manière quantitative les résultats de la
segmentation selon chacune des métriques suivantes : le critère des moindre carrés, le
coefficient de corrélation et enfin l’information mutuelle. La qualité du recalage et donc de la
segmentation a été fortement liée à la métrique choisi. Les résultats de notre expérience ont
montré l’efficacité de l’information mutuelle par rapport au coefficient de corrélation et à la
mesure L2.
66
68
70
72
74
76
78
80
82
84
86
L2 (72.5%) CC (75,3%) IM (84,2%)
Conclusion :
Dans ce projet, nous avons présenté une approche de segmentation d’image TEP cérébrales en
intégrant les connaissances à priori sur l’anatomie du cerveau.
L’intérêt principal de notre approche réside dans la donnée d’une connaissance à priori
résumée sous forme picturale, c’est-à-dire une image, que l’on qualifie de modèle ou d’atlas
représentant de manière implicite la connaissance anatomique.
L’incorporation de connaissances a priori est employée d’une part afin d’améliorer la
robustesse face au bruit et aux bords faiblement contrastés et permet d’autre part d’orienter la
recherche de la solution en la contraignant à rester « proche » d’une classe donnée de formes
qui est l’atlas. De plus cette connaissance est mise à profit pour la détection des structures
difficilement visualisable, par exemple en raison d’un contraste faible avec les structures
environnantes, phénomène très courant en imagerie TEP.
Les résultats obtenus sont très prometteurs, ceci en majeure partie grâce à la robustesse de
l’information mutuelle face à la diversité d’intensités entre volumes à recaler (TEP-ATLAS).
L’outil que nous proposons permet entre autres de :
• Quantifier les tissus cérébraux, information qui facilite l’étude de nombreuses
pathologies neurodégénératives telles que la maladie d’Alzheimer.
• Localiser par triangulation les structures anatomiques sur l’image TEP.
• Fusionner les informations fournis par l’atlas et le volume TEP en entrée.
• Etudier les zones d’hyperfixation.
Notre approche reste cependant inapplicable en temps réel étant donnée la complexité de
calcul de l’information mutuelle ainsi que de son gradient. En perspective, nous prévoyons
l’intégration au niveau d’ELASTIX d’autres algorithmes d’optimisation contournant le calcul
du gradient (Simplexe, Recuit Simulé).
1 Anne Strauss-De la radiologie conventionnelle au pixel-Université Pierre et Marie Curie,-1994
2 Antoine Manzanera-L'image numérique-ENSTA ParisTech Support de Cours Master -2008
3 Antoine Manzanera-Filtrage et restauration-ENSTA ParisTech Support de Cours Master -2008
4 Barbara Zitovà, Jan Flusser-Image registration methods: a survey-Image and Vision Computing 21-2003
5 Bruno Boyer-Tomodensitométrie : principes, formation de l’image-Encyclopédie Médico-Chirurgicale 35-170-A-10-
6 Bryan S.Morse-Segmentation Region Based-Brigham Young Univesity-2000
7 C. Fookes, A. Maeder-Comparison of Popular Non-Rigid Image Registration Techniques and a New Hybrid Mutual Information-Based Fluid Algorithm-Workshop on Digital Image Computing-2003
8 CANCER INFO-[En Ligne] Consulté le 01/01/2011 -Disponible sur : http://www.e-cancer.fr/les-cancers-
9 Charles Laymon-PET Image Quantification and Reconstruction-Multi-modal Neuroimaging Training Program-2007
10 Daniel Ruijters, Philippe Thevenaz-GPU Prefilter for Accurate Cubic B-spline Interpolation-Ecole polytechnique fédérale de Lausanne, Switzerland-2010
11 Dennis P. Curtin-An Extension to The Textbook of Digital Photography-Pixels and Images-2007
12 Dzung L.Pham, Chenyang Xu, Jerry L.Prince-A survey of current methods in medical image segmentation-Annual Review of Biomedical Engineering-1998
Bibliographie
13 Elizabeth Adams, Karen Flynn-Positron Emission Tomography-Management Decision And Research Center-1998
14 Emmanuel DUMAS-Elaboration d'Outils de Segmentation et de Recalage d'Images Multimodales Application à l'étude des Accidents Vasculaires Cérébraux à partir d'Angiographie IRM chez le Primate non humain-UNIVERSITE DE CAEN / BASSE-NORMANDIE U.F.R. SCIENCES ECOLE DOCTORALE SIMEM-2000
15 Guy Almouzni-Traitement numérique des images-EISTI-2010
16 H. A. Kirişli, M. Schaap, S. Klein, T. van Walsum-Evaluation of a multi-atlas based method for segmentation of cardiac CTA data: a large-scale, multicenter, and multivendor study-The International Journal of Medical Physics Research and Practice Vol 37 Issues 12-2010
17 Jacques Chiras-Angiographie cérébrale normale-Encyclopédie Médico-Chirurgicale 17-032-D-10-
18 Jean Pergrale-Echographie Médicale: principes et applications-Philips Medical Systems Research Paris-2005
20 Jean-Jacques ROUSSELLE-les contours actifs une méthode de segmentation-Université François Rabelais de Tours-2003
21 Jean-Jacques Samueli-La découverte des rayons X par Röntgen--1995
22 Jean-Loïc ROSE-Croissance de région variationnelle et contraintes géométriques tridimensionnelles pour la segmentation d’image-L’Institut National des Sciences Appliquées de Lyon-2008
23 Jérémy Lecoeur, Christian Barillot-Segmentation d’images cérébrales : État de l’art-Rapport de recherche INRIA -2007
24 Laurent Najman, Michel Couprie-Watershed algorithms and contrast preservation-Laboratoire A2SI, Groupe ESIEE-2003
25 Lei He, Zhigang Peng, Bryan Everding, Xun Wang,Chia Y.Han , Kenneth L.Weiss, William G.Wee-A comparative study of deformable contour methods on medical image segmentation-Image and Vision Computing 26 141–163 ScienceDirect-2008
26 Mamy RAKOTO-RAVALONTSALAMA-METHODES DE SEGMENTATION AUTOMATIQUE D’IMAGE-Analyse quantitative des formes (SATFORM )-2000
27 Metz CT, Klein S, Schaap M, van Walsum T, Niessen WJ.-Nonrigid registration of dynamic medical imaging data using nD + t B-splines and a groupwise optimization approach-Medical Image Analysis Vol 15 Issue 2-2011
28 Michael Kass, Andrew Witkin, Demetri Terzopoulos-Snakes : Active Contour Models-International Journal of Computer Vision 321-331-1988
29 Michael Unser-Splines : A perfect Fit for Signal and Image Processing-IEEE Signal Processing Magazine 1053-5888-1999
30 Michael Unser, Akram Aldroubi, Murray Eden-Bspline Signal Processing : Part II - Efficient Design-IEEE Transactions on signal processing Vol 41 N° 2-1993
33 Moo K. Chung-The Gaussian Kernel-Medical Image Analysis-2007
34 N. Betrouni, T. Lacornerie, M. Vermandel-Recalage d’images pour la délinéation : principes, validation et pratique en routine-Cancer / Radiothérapie Volume 13, numéro 6-7 pages 588-593-2009
35 Neil Scott-Edge Detection using Mathematical Morphology-UNIVERSITY OF WINDSOR-2007
36 Olivier Coulon-Filtrage et introduction aux équations de diffusion - Support de Cours-Laboratoire des Sciences de l’Information et des Systèmes-2005
37 Olivier FRANÇAIS-Théorie de l’échantillonnage et de la quantification--2000
38 P. BONNET-Support de Cours Traitement d'image-Université Lille 1 Science et Technologie-2005
40 Peter T. Fox, Joel S. Perlmutter, Marcus E. Raichle-A Stereotactic Method of Anatomical Localization for Positron Emission Tomography-Journal of Computer Assisted Tomography 9(1):141-153-1985
41 Philippe Thévenaz, Thierry Blu,Michael Unser-Interpolation Revisited-IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 19, NO. 7-2000
42 Pietro Perona, Jitendra Malik -Scale-Space and Edge Detection Using Anisotropic diffusion-IEEE on Pattern Analysis and Machine Intelligence Vol 12 N° 7 -1990
43 R. Unnikrishnan, C. Pantofaru, M. Hebert-A Measure for Objective Evaluation of Image Segmentation Algorithms-The Robotics Institute Carnegie Mellon University Pittsburgh-2005
44 R. Unnikrishnan, C. Pantofaru, M. Hebert-Toward Objective Evaluation of Image Segmentation Algorithms-IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 29, NO. 6-2007
45 Raman Maini, Himanshu Aggarwal-Study and Comparison of Various Image Edge Detection Techniques-International Journal of Image Processing (IJIP), Volume (3) : Issue (1)-2009
46 Romain FERNANDEZ-Construction d'un modèle anatomique du système cardio-vasculaire par segmentation d'IRM-INRIA Sophia-Antipolis-2003
47 S. Cherik, H. Mouhadjer, A. Belghoraf-Fusion d’Image Médicale Multimodal (IRM, TEP)-4th International Conference on Computer Integrated Manufacturing-2007
48 Simon K.Warfield, Kelly H.Zou, William M.Wells-Validation of image segmentation by estimating rater bias and variance-Springer Berlin / Heidelberg-2006
49 Slime Samir-Environnement de segmentation d’image à base d’une approche biomimétique-Institut National de formation en Informatique (I.N.I) Alger-2008
50 Stefan Klein-Optimisation Methods for Medical Image Registration-PhD thesis, Utrecht University, the Netherlands-2008
51 Stefan Klein, Marius Staring, Josien P.W.Pluim-Evaluation of Optimization Methods for Nonrigid Medical Image Registration Using Mutual Information and B-Splines-IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 16, NO. 12-2007
52 Stefan Klein, Marius Staring, Keelin Murphy, Max A. Viergever, Josien P.W.Pluim-elastix: a toolbox for inte+C32nsity-based medical image registration-IEEE TRANSACTIONS ON MEDICAL IMAGING 29 (1)-2010
53 Stéphane PIGNOL-Initiation au traitement d'images--2007
54 Václav Hlavác-IMAGE SEGMENTATION-Center for Machine Perception Prague-2008
55 Xavier Philippeau-Les filtres usuels en traitement d'images--2007
56 Y.H. Dai and Y. Yuan-An efficient hybrid conjugate gradient method for unconstrained optimization-Annals of Operation Research Vol 103 N° 1-4 33-47-2001
57 Yujun Guo-Medical Image Registration and Application to Atlas-Based Segmentation-Université de Kent OHIO-2006
Résume
En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil majeur enoncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux modalités habituelles(IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du corps plutôt que sur sonanatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très avancé, voire avant mêmequ’elles n’aient de manifestation morphologique. Cependant, du fait de la nature fonctionnelle des imagesTEP, la localisation des structures anatomiques dans une telle image reste une tâche très difficile ; en effet,les images TEP ne fournissent qu’une très faible information anatomique. La segmentation d’images TEPrequiert donc l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à sesconnaissances à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’unvolume coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps. Nous présentonsdans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant à la fois, l’informationfournie par le volume TEP à segmenter et des connaissances apriori sur le volume fournis sous forme d’AtlasAnatomique. Le principe de notre approche consiste à appliquer un recalage entre le volume TEP en entréeet l’atlas anatomique, déterminant ainsi, la transformation géométrique conduisant au meilleur alignementTEP/Atlas.
Mots clés :Segmentation; Recalage d’images; Atlas; Optimisation; Information Mutuelle; TEP; ImagerieMédicale; Médecine Nucléaire; Métric; Imagerie Fonctionnelle.