MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE TAHRI MOHAMMED, BECHAR FACULTE DES SCIENCES EXACTES DEPARTEMENT DES MATHEMATIQUES ET DE L’INFORMATIQUEMEMOIRE DE MASTER En vue de l’obtention du diplôme de Master en informatique Option Systèmes Informatiques et Réseau Intitulé UN SYSTÈME BIOMÉTRIQUE BASÉ SUR LA FUSION DES EMPREINTES DIGITALES ET DES VEINES DES DOIGTS Présenté par : Encadré par : KHELIFI Naim Dr. ELMIR Youcef 2014/2015
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Ce travail consiste à réaliser un système d’authentification biométrique multimodal basé
sur la fusion des deux modalités biométriques : empreinte digitale et les veines de doigts. Il
permet de vérifier ou identifier les individus à partir des caractéristiques extraites de leursempreintes digitales ainsi que leurs veines des doigts. L’objectif principal de ce travailréside dans la partie de fusion multimodale.
Dans ce cadre, une approche comparative entre les différentes techniques de fusion ; principalement, au niveau des caractéristiques et au niveau des scores a été mise enévidence pour s’en sortir finalement d’une nouvelle technique qui sert à faire coaliser les
deux principes de fusion pour améliorer les résultats de vérification/identification. Cetteétude a été validée sur une base de données multimodale SDUMLA-HMT.
Cette nouvelle approche a amélioré les r ésultats de test d’une manière significative, elle a
présenté également un niveau de performance assez agréable.
Mots clés : BIOMETRIE, EMPREINTE DIGITALE, VEINES DES DOIGTS, IDENTIFICATION, VERIFICATION
ال
ا
ا
د
ي
ظم
اء
ا
دت
اظم
ا
,اشص
ف
ا
ه
طا
اشص
كا
أو
اف
ا
ص
ف
ك
ا
س
ا
وق
و
ت
اضع
ب
اذن
.أ
وق
و
ت
ا
ئا
ادا
ات
.
خا
,ئا
ى
و
ئا
ى
خ
و
ئا
د
ت
ة
ر
,اق
ا
ة
ط
اااح
اات
زج
اوا
ه
.
كا
ا
ض
ئ
.اث
ضع
اا هاةد ت ة ا تاSDUMLA-HMT.
تك
.ا
,ا
وق
,ا
ت
,ا
ات
Abstract :
This work has to release a multimodal biometric authentication system based onfingerprints and finger vein fusion. It has to check the person identity form thecharacteristics extracted from their fingerprints and finger vein. The purpose of this objectis the multimodal fusion.
For that, a comparison between some fusion techniques was made, essentially the fusionon characteristics level and on scores level. Finally a new fusion’s method has been
proposed; it consists to use both of characteristics and scores level fusion. This new fusiontechnique improved the recognition performance.
This proposed technique was validated on a multimodal database SDUMLA-HMT.
SommaireRésumé : ............................................................................................................................................. I
Conclusion générale et perspectives: ............................................................................................ 79
Bibliographie ..................................................................................................................................... i
Annexe 1 :......................................................................................................................................... iii
Annexe2 :.......................................................................................................................................... iv
Figure 1. Exemples des modalités biométrique ----------------------------------------------------------- 10 Figure 2 Sources de différents types de fusion de traits biométriques. ------------------------------- 13
Figure 3 Distribution des taux de vraisemblance des utilisateurs légitime et desimposteurs d’un système biométrique.---------------------------------------------------------------- 18 Figure 4 Courbe ROC (Receiver Operating Characteristics) (2) ------------------------------------- 19 Figure 5 Exemple d’une empreinte digitale ---------------------------------------------------------------- 23 Figure 6 Les différents types d’empreintes : (a) Image de type arc, (b) Image de type boucle,
(c) Image de type spiral ---------------------------------------------------------------------------------- 23 Figure 7 Exemples de quatre familles de crêtes. ---------------------------------------------------------- 24 Figure 8 Les points singuliers -------------------------------------------------------------------------------- 24 Figure 9 Augmentation d’image ----------------------------------------------------------------------------- 26 Figure 10 Amincissement d’image --------------------------------------------------------------------------- 26 Figure 11 Type de minuties ----------------------------------------------------------------------------------- 27 Figure 12 La technologie de reconnaissance des veines de doigt d’HITACHI- Japon ------------ 32 Figure 13 Extraction des caractéristiques PHG. --------------------------------------------------------- 37 Figure 14 Extraction des caractéristiques PHT. --------------------------------------------------------- 38 Figure 15 Extraction des caractéristiques PHOG. ------------------------------------------------------- 41 Figure 16 Structure veineuse de doigt ---------------------------------------------------------------------- 41 Figure 17 Interface Matlab ----------------------------------------------------------------------------------- 44 Figure 18 Diagramme conceptuel de reconnaissance des veines et empreintes digitales
fusionnées au niveau des caractéristiques et au niveau des scores. ------------------------------ 45 Figure 19 Script de finger_ROI ----------------------------------------------------------------------------- 46 Figure 20 Détermination des ROI d’une empreinte digitale ------------------------------------------- 47
Figure 21 Détermination de ROI d’une empreinte digitale à partir des contours. ---------------- 48 Figure 22 Script vein_ROI. ----------------------------------------------------------------------------------- 48 Figure 23 Détermination de ROI d’une image des veines de doigt ----------------------------------- 49 Figure 24 Représentation tridimensionnelle de la fonction de Gabor -------------------------------- 51 Figure 25 Masque du filtre de Gabor de rayon 21 pixels pour θ =0, f =√2 /10 et σx= σ y=7 ---- 51 Figure 26 Représentation d’une sphère avec la distance euclidienne (A.1.a) et la distance ------ 58 Figure 27 Les deux vecteurs m et n dans l’espace de Mahalanobis ----------------------------------- 59 Figure 28 Schéma de la fusion des scores. ------------------------------------------------------------------ 61 Figure 29 Interface graphique ‘fusion gui’. --------------------------------------------------------------- 64 Figure 30 Démonstration de la tache de vérification. --------------------------------------------------- 65
Figure 31 Quelques exemples des images des veines du doigt. ----------------------------------------- 66 Figure 32 Quelques exemples des images des empreintes digitales prises par les cinq capteurs
de SDUMLA-HMT. -------------------------------------------------------------------------------------- 68 Figure 33 Fusion au niveau des caractéristiques. -------------------------------------------------------- 70 Figure 34 Fusion au niveau des scores. --------------------------------------------------------------------- 71 Figure 35 Fusion hybride. ------------------------------------------------------------------------------------- 72 Figure 36 Les courbes ROC des cinq scenarios. ---------------------------------------------------------- 76 Figure 37 Les courbes CMC des cinq scenarios. --------------------------------------------------------- 77
est plus facile de falsifier un mot de passe ou un papier d'identité que de reproduire un
visage ou des empreintes digitales. Cependant ces impostures existent, en particulier pour
les empreintes digitales qui est, de nos jours, la biométrie la plus utilisée et pour laquelle il
est possible de "voler" (car les empreintes digitales laissent des traces) et de reproduire (àl'aide de silicone par exemple) les empreintes digitales d'une autre personne.
Toutes ces limitations peuvent être réduites voire supprimées par l'utilisation conjointe de
plusieurs systèmes biométriques formant alors un système biométrique multimodal. Les
systèmes multimodaux permettent d'améliorer les performances de reconnaissance en
combinant les décisions de plusieurs systèmes. Ils permettent également de régler le
problème de non-universalité de certaines biométries en proposant une alternative aux
personnes ne pouvant utiliser certaines biométries. Et enfin, ils permettent de limiter les possibilités de fraude car il est plus difficile d'obtenir et de reproduire plusieurs
caractéristiques qu'une seule.
C’est pour c’est raison que le présent mémoire présente la proposition de réalisation d’un
système biométrique multimodale basé sur la fusion des deux traits à savoir les empreintes
digitales et les veines des doigts.
La première modalité est la plus utilisée dans le domaine de la biométrie depuis des siècles jusqu’aujourd’hui du fait qu’elle est la plus répondue chez les humains, à moins qu’elle
présente des limites de performances de reconnaissance et elle est la plus exposée à la
fraude. A cet égard, une autre modalité (les veines des doigts) assez récente a été choisie
pour réduire ou supprimer les anomalies constatées dans la reconnaissance à base des
empreintes digitales.Ces deux traits biométriques proviennent des mêmes sources qui sont
les doigts, cet avantage permet aux exploitants de cette technique de profiter de la facilité
et la rapidité de processus d’acquisition.
Dans le premier chapitre, on va présenter une brève introduction à la biométrie dans
laquelle quelques définitions et notions de base sont relatés. Dans les deux chapitres qui
suivent, on va décortiquer les deux types de reconnaissance de notre travail à l’occurrence
les empreintes digitales et les veines des doigts respectivement. Ainsi, dans le chapitre
quatre qui représente le cœur du sujet, l’approche proposée est développée et les résultats
obtenus sont discutés pour conclure finalement par une présentation des limites rencontrées
et des perspectives qui peuvent faire l’objet des futurs travaux.
La vérification automatique de personnes représente un marché gigantesque plébiscite pardes besoins de sécurité de plus en plus accrus. Ces besoins se martèlent sous différentes
formes, ils s’expriment en terme de contrôle d’accès physique a des lieux protégés, de
contrôle d’accès virtuel à des réseaux d’ordinateurs, de répression dans le domaine
juridique ou de personnalisation d’objets à usage prive (téléphone et autres). (2)
A terme, les prévisions les moins indulgentes ne soutiennent que les modes traditionnels
d’identification (code PIN, mot de passe, badge, clef, etc.) seront amenés à être remplacés par des systèmes biométriques. Ces mécanismes identifient une connaissance ou une
possession, ils sont ainsi enclins à l’invasion d’un usurpateur (vol, duplication, etc.). La
biométrie est un domaine à très fort potentiel, en ce sens qu’elle est rattachée à la structure
d’une personne (elle peut être physique : iris, voix, etc. ou comportementale : dynamique
de frappe, signature, etc.).
Définition de la biométrie :
La biométrie est la science qui vérifie l’identité des individus à travers des mesures
physiologiques ou des traits comportementaux.
Il peut y avoir plusieurs types de caractéristiques physiques, les unes plus fiables que les
autres, mais toutes doivent être universelles (exister chez tous les individus), uniques
(permettre de différencier un individu par rapport à un autre), permanentes (autoriser
l'évolution dans le temps), mesurables (autoriser une comparaison future) et enfin on peutles collecter (enregistrer les caractéristiques d'un individu avec l'accord de celui-ci). (2)
Les techniques biométriques peuvent être classées en deux catégories. La première repose
sur les techniques d'analyse des comportements. Cette dernière concerne l’étude des
actions répétitives et usuelles des personnes. Par exemples, l’analyse de la dynamique de la
signature (vitesse de déplacement du stylo, accélérations, pression exercée, inclinaison) ou
la façon d'utiliser un clavier d'ordinateur (la pression exercée, la vitesse de frappe, lessuites de caractères répétitives). (2)
iv. Système multi-échantillons : Cette classe désigne les systèmes où un même
capteur est utilisé pour obtenir plusieurs variantes ou représentations
complémentaires d’une seule modalité biométrique. C’est le cas, lors de la
reconnaissance du visage en se basant sur les images du visage de face et selon les profils droit et gauche afin de prendre en compte les variations de la pose faciale.
v. Plusieurs modalités biométriques (voix et visage, empreinte digitale et veine).
Figure 2 Sources de différents types de fusion de traits biométriques.
Le dernier point est appelé aussi la multi-modalité qui peut avoir lieu dans quatre niveaux
de fusion qui se subdivisent eux même en deux catégories (1):
La fusion pré-classification (avant comparaison) et la fusion post-classification (après lacomparaison).
La fusion pré-classification correspond à la fusion des informations issues de plusieurs
données biométriques au niveau du capteur (images brutes) ou au niveau des
caractéristiques extraites par le module d'extraction de caractéristiques.
La fusion post-classification peut se faire au niveau des scores issus des modules de
comparaison ou au niveau des décisions. Dans les deux cas, la fusion est en fait un
problème bien connu de la littérature sous le nom de " Multiple Classifier Systems".
Les niveaux de fusion :
1. Fusion au niveau des capteurs
Les données brutes issues des capteurs sont combinées à ce niveau, ces données
représentent des instances d’une même biométrie obtenues, soit par plusieurs capteurs
compatibles, ou bien par un unique capteur. Par exemple, les images du visage obtenues
par différentes caméras sont combinées pour former un modèle 3D du visage. Les
instances des données doivent être compatibles, par exemple, les images du visage ne
peuvent pas être combinées ensemble, si elles sont prises avec différentes résolutions.
2. Fusion au niveau des caractéristiques
Elle désigne la combinaison des vecteurs de caractéristiques obtenus par les différentes
sources suivantes : plusieurs capteurs, plusieurs instances ou unités d’une même
modalité biométrique, plusieurs modalités biométriques. Lorsque les vecteurs de
caractéristiques sont homogènes (par exemple, plusieurs prises d’une empreinte d’un
individu), il résulte un seul vecteur de caractéristiques qui représente la moyenne des
poids des vecteurs individuels. Dans le cas contraire (des vecteurs de caractéristiques de
différentes biométries telles que : le visage et la signature), une concaténation de ces
derniers est possible afin de former un seul vecteur de caractéristiques. La concaténation
n’est pas possible dans le cas où les caractéristiques ne sont pas compatibles (c’est le
cas pour les minuties des empreintes et les coefficients d’Eigen-face, par exemple).
3.
Fusion au niveau du score
Lorsque les classifieurs biométriques génèrent un ensemble de données avec un degré
de ressemblance (score de classification), l’intégration peut avoir lieu au niveau du
score de classification, appelé aussi fusion au niveau de mesure ou bien au niveau de
confiance. Après les vecteurs de caractéristiques, les scores issus des classifieurs
contiennent des informations très riches relatives aux données en entrée, un autre
avantage de ce niveau est la possibilité d’accéder et de combiner les différents scores
générés par les différents classifieurs, par conséquent, la fusion des données dans cestade est l’approche la plus commune dans les systèmes multi-biométriques.
La fusion au niveau des décisions est souvent utilisée pour sa simplicité. En effet,
chaque système fournit une décision binaire sous la forme OUI ou NON que l'on
peut représenter par 0 et 1, et le système de fusion de décisions consiste à prendreune décision finale en fonction de cette série de 0 et de 1. Les méthodes les plus
utilisées sont des méthodes à base de votes telles que le OR (si un système a décidé
1 alors OUI), le AND (si tous les systèmes ont décidé 1 alors OUI) ou le vote à la
majorité (si la majorité des systèmes ont décidé 1 alors OUI).
Les systèmes biométriques multimodales ont plusieurs avantages dont :
La robustesse contre la nuisance.
Résolution des problèmes de non universalité.
Renforcement des systèmes biométriques en matière de sécurité.
Ces systèmes multimodales ont attiré considérablement l’attention des chercheurs, d’où la
diversité de plusieurs sortes de combinaisons des modalités biométriques comme : l’iris et
le visage, l’empreinte digitale et le visage, l’empreinte et la voix, etc.
1.4.
Critères d’évaluation des performances :
Il est évident que les caractéristiques qui définissent un système biométrique ont soit des
points forts soit des faiblesses. Leur choix dépendra ainsi de l’application voulue. Du coup,
il ne faut pas s’attendre à avoir une réponse efficace à toutes les exigences d’une
application. Dès lors, le système biométrique optimal n’existe pas (3).
Pour faire correspondre un système biométrique à une application, il faudra alors, voir lemode opérationnelle de cette application, ainsi que les caractéristiques biométriques
choisis.
De ce fait, plusieurs études ont été menées dans le but de pouvoir évaluer les performances
d’un système biométrique en se basant sur des critères d’évaluation comme l’IGB
(International Biométric Group) une société américaine qui a effectué une étude fondée sur
C’est un critère qui classe les systèmes biométriques en fonction de l’existence d’un
contact direct entre le capteur et l’individu à reconnaitre, comme la reconnaissance par
iris qui est jugé comme étant intrusive.
La fiabilité :
Elle dépend de la qualité de l’environnement (éclairage par exemple) dans lequel se
trouve l’utilisateur. Ce critère influe sur la reconnaissance de l’utilisateur par le
système.
Le cout :
Il doit être modéré, c’est-à-dire que la collection d’information ne doit pas être
relativement couteuse pour établir une base de données, par exemple la reconnaissance
par iris exige un appareil photo numérique d’une certaine qualité.
L’effort :
Il est requis par l’utilisateur lors de saisi des mesures biométriques, et il doit être réduit
le plus tôt possible. Il s’ensuit alors une classification des techniques qui pourraientamener à juger de la méthode biométrique qui peut être la plus apte à être utilisée. On se
situera alors sur une sorte d’échelle sur laquelle on classe les techniques :
Des techniques les moins intrusive aux plus intrusives, la voix, la frappe sur le clavier, la
signature, la main, le visage, l’empreinte digitale, l’iris et enfin la rétine.
Des techniques les moins fiables aux plus fiables, l’iris, la rétine, l’empreinte digitale, le
visage, la main, la voix, et enfin la frappe sur le clavier et la signature.
Des techniques les moins couteuses aux plus couteuses : la frappe sur le clavier, la voix, la
signature, l’empreinte digitale, la main, le visage, la rétine et l’iris.
Des techniques les plus faciles à l’utilisation aux plus difficiles : le visage, la signature,
l’iris, la frappe sur le clavier, la voix, l’empreinte digitale, la main et enfin la rétine.
Evaluation de la précision d’un système biométrique :
La performance d’un système biométrique peut être mesuré aussi sur la base d’autres
critères tel que : la précision, l’efficacité et le volume des données stockées pour chaque
locuteur. Cependant, seule la précision fera l’objet de l’évaluation tout en prenant encompte le mode opératoire utilisé, l’identification et la vérification. Chacun de ces modes
nécessitera des mesures de précision différentes.
Evaluation de l’identification :
Le taux d’évaluation est l’une des mesures la plus utilisées couramment, mais il peut
s’avère insuffisant. En effet, en cas d’erreur, il peut être utile de savoir si le bon choix se
trouve dans les N premiers. On trace alors le score cumulé qui représente la probabilité que
le bon choix se trouve parmi les N premiers.
La précision est le rapport entre le nombre de modèle correctement retrouvé par le système
dans la base de données et le nombre totale de modèle retrouvé. Le rappel est le rapport
entre le nombre de modèle correctement retrouvé par le système dans la base de données et
le nombre totale de modèle qui aurait dû être retrouvé. Le type d’erreur commise par ce
genre de système est d’attribuer à un individu présentant une identité autre que la sie nne.
Les performances de ce système sont mesurées à l’aide de taux d’identification.
Ce paramètre dépend de nombre des personnes contenues dans la base de données. En
effet, plus le nombre de tests est grand, plus le taux d’erreur risque d’être important.
Evaluation de la vérification :
En apparentera cette étape à un problème de prise de décision formulé de cette façon :
Soit H0 l’hypothèse : « la capture C provenant d’un imposteur » et H1 l’hypothèse : « la
capture C provenant d’un utilisateur légitime », en choisira l’hypothèse la plus probable,
c’est-à-dire, la capture C provient d’un utilisateur légitime si P(H1/C)> P(H0/C), on
On remarque à travers la figure 3 que plus le seuil de décision θ est grand, plus le système
acceptera de clients légitimes mais aussi des imposteurs, plus θ est petit, plus le système
rejettera d’imposteurs mais aussi des utilisateurs légitimes. Le paramétrage d’un système
consiste à trouver le bon équilibre entre ces deux taux. Les performances d’un système
biométrique peuvent être présentées graphiquement à l’aide de la courbe réceptrice descaractéristiques de fonctionnement ROC (Receiver Operating Characteristics) sur
laquelle les FRR sont données en fonction des FAR. Cette courbe est obtenue en calculant
un couple (FAR, FRR) pour chaque valeur du seuil de décision, ce dernier varie de la plus
petite valeur des taux obtenus en phase de test à la plus grande valeur.
Il existe d’autres critères fréquemment utilisés pour donner un aperçu des performances
Le taux d’erreur égale correspond à l’intersection de la courbe ROC avec la première
bissectrice, en d’autres termes, EER correspond au point de fonctionnement pour lequel le
taux de faux rejet est égal au taux de fausse acceptation.
HTER (Half Total Equal Error):
Il représente la moyenne du FAR et FRR.
TER (Total Error Rate) :
Le taux d’erreur globale correspond au taux d’erreur totale (faux rejet et fausse
acceptation) obtenu lors du test.
1.5. Conclusion :
Dans ce chapitre, une introduction générale sur la biométrie est abordée en revue ainsi quequelque techniques biométriques. La signification de la biométrie unimodale est aussi
présentée ainsi que ses limites qu’on les a remédié en proposant une approche multimodale
qui sont décortiqué avec les différentes techniques multi-biométriques. Les critères
d’évaluation de performance et de fiabilité sont aussi présentés, ces critères permettent
plutôt le choix d’un système biométrique qu’un autre, dans le but d’obtenir plus de
performances.
Dans les deux chapitres suivants, la reconnaissance de l’empreinte digitale et des veinesdes doigts sont respectivement présentées, ainsi que leurs différentes techniques
d’extraction des caractéristiques et de comparaison.
Les minuties : Les empreintes digitales présentent plusieurs types de points dont la
détermination repose sur des règles précises et complexes. Les bifurcations et les fins
de crêtes permettent la reconstitution de toutes les minuties, toute autre minutie peut
se composer de combinaisons de bifurcations et de fins de crêtes. Par exemple, lesanneaux peuvent être visualises en tant que deux bifurcations qui se superposant et un
ilot peut être représenté par deux fins de crêtes à courte distance (Figure.7).
Figure 7 Exemples de quatre familles de crêtes.
Les points singuliers :
Le centre : le centre est le lieu de courbure maximale des lignes d’empreinte les
plus internes. Il est aussi appelé le point core.
Les deltas : un delta est proche du lieu où se séparent deux lignes d’empreintes
vérifiant les propriétés suivantes : ces lignes se séparent suivant deux directions
orthogonales et sont les lignes les plus internes vérifiant la propriété précédente.
2.2. Techniques d’extractions des caractéristiques :
La représentation d’une empreinte est essentielle pour le système automatique. Cette
représentation devrait avoir des propriétés ci-dessous (6) :
Retenir les caractéristiques discriminantes (uniques) de chaque empreinte. Facile à calculer.
Facile à l’automatique mappage algorithme.
Stable et invariant au bruit et à la distorsion.
Une empreinte apparait comme une surface alternée de crêtes et de vallées parallèles sur la
plupart des régions. Différentes caractéristiques permanentes ou semi-permanentes tels que
les blessures, les coupures et les bleus sont aussi présentes sur l’empreinte. Qu’il s’agisse
d’un problème de vérification ou de classification, il est nécessaire de définir surl’empreinte une représentation invariante : des caractéristiques qui ne s’altèrent pas avec le
temps. Cette représentation peut être globale prenant en compte toute l’image ou, locale
c'est-à-dire constituée d’un ensemble de composantes dérivée chacune d’une région
restreinte sur l’empreinte.
Plusieurs méthodes sont employées pour reconnaître les empreintes digitales : localisation
des minuties, analyse spectrale, traitement de textures, etc. Localisation des minuties : cette méthode ne retient que l’emplacement des
minuties les plus pertinentes. Elle est peu sensible aux déformations des doigts
entre plusieurs vérifications (doigts plus ou moins appuyés sur le capteur).
Traitement de textures : des paramètres issus de certaines propriétés de la texture
des empreintes (orientation, fréquence, etc.) sont comparés. Cette méthode permet
un traitement très rapide, et donc un temps de réponse très court.
2.2.1. Localisation des minuties :
Le but d’un algorithme d’appariement est de comparer deux images ou deux gabarits et de
retourner le score de similarité qui correspond à la probabilité que deux empreintes se
correspondent. A l’exception des algorithmes bases sur la corrélation, la plupart des
algorithmes extraient des caractéristiques dans le but de faire l’appariement. Les détails de
minutie constituent la représentation la plus populaire de toutes les représentations
existantes, elles répondent efficacement au problème de taille posent précédemment.
Cette étape va extraire des minuties dans l’image sortie d’étape dernière. Cette image se
compose des crêtes que son diamètre est un pixel. En général, le minutie est catégorisé par
plusieurs types : le crête de bifurcation, la fin de ligne, le lac, l’île… Pour chaque pixel I(i,j), on traite un fenêtre de 3 x 3 autour de (i,j), cinq cas différents sont reconnus :
Figure 11 Type de minuties
i. I(i,j)=0, c’est la fond d’empreinte digitale.
ii. I(i,j)=1 et aucune crête voisine. C’est une île (marquer pour minutie).
iii. I(i,j)=1 et un seul crête voisine. C’est un pixel à la fin de ligne (marquer pour une
minutie).
iv. I(i,j)=1 et deux crêtes voisines. C’est un ligne continu et pas de minutie. Donc, on
supprime cette crête.
v.
I(i,j)=1 et trois crêtes voisines. C’est un la crête de bifurcation (marquer pour une
minutie).
Le cas de I(i,j)=1 et plus de trois crêtes voisines ne compte pas car les crêtes d’empreinte
Les algorithmes d’appariement bases sur les minuties ne s’exécutent pas bien quand la
surface de l’empreinte est petite étant donné que le nombre de minuties n’est pas suffisant
pour l’appariement. De plus, le processus d’extraction des minuties est plus enclin àl’erreur dans ce genre de cas. Prabhakar (7) propose une méthode basée sur un banc de
filtres pour effectuer l’appariement de cette sorte d’images. Ils décrivent un nouveau
descripteur de texture appelé "code d’empreinte". Les informations de texture (moyennes
et variances) sont extraites en effectuant une sectorisation de l’image autour d’un point de
référence (le point core); et l’appariement est base sur le calcul de la distance euclidienne
entre deux codes. L’inconvénient de cette approche est que le point core doit être localise
de façon exacte. Cela n’est pas possible pour des images de mauvaise qualité. De plus, la
performance est inferieure comparée aux appariements basés sur les minuties. Cependant,
une décision qui combine les paramètres de texture et les minuties aurait un meilleur
rendement (2).
2.3. Techniques de comparaison :
Idem aux différentes techniques d’extraction des caractéristiques, il en existe deux
techniques générales de comparaison servant à authentifier une empreinte digitale :
Comparaison locale (des minuties) (6):
Le système d’authentification d'identité est basé sur la comparaison de deux ensembles de
minuties, correspondants respectivement à deux doigts à comparer. Pour déterminer si
deux ensembles de minuties extraits de deux images correspondent à des empreintes du
même doigt, il est nécessaire d'adopter un système de comparaison qui soit insensible à
d'éventuelles translations, rotations et déformations qui affectent systématiquement lesempreintes digitales. À partir de même empreinte, le calcul ne donnera jamais 100% de
ressemblance à cause de l'acquisition de deux doigts (petites déformations ou
déplacements, ou rotations).
Le processus d’authentification demande une empreinte digitale à authentifier (M) et une
empreinte existante dans la base de données (M’). Supposant qu’on a deux tableaux de
minuties de deux empreintes digitales nommés MI et MI’ correspondant. Cette étape
estime la similarité entre deux ensembles de minuties. En surveillant une empreinte
Durant cette dernière décade, la biométrie n’existait pas comme une branche séparée. Elle
a évolué à travers son interaction avec plusieurs disciplines. La reconnaissance d’empreinte
a émergé à partir de l’application de la reconnaissance d’attribut (pattern recognition) dans
le domaine juridique.
La tache primaire dans la reconnaissance biométrique est le choix d’une représentation
appropriée des caractéristiques. Une fois les caractéristiques sont soigneusement choisies,
l’acte pour accomplir la vérification s’avère assez bien maitrisé. L’aspect le plus
contraignant et qui reste au jour d’aujourd’hui un défi à surmonter est en relation avec letraitement du signal et de l’image pour une bonne extraction des caractéristiques. Puisque
le gabarit biométrique représente une information cruciale pour identifier les individus, la
fiabilité, la robustesse, le caractère sécuritaire et privé sont autant des facteurs qui rentrent
en ligne de mire lorsqu’on est appelé à concevoir un système de vérification d’identité.
C’est dans ce cadre et au sein de ce corpus informationnel en considérant toutes les
contraintes et toutes les spécifications qu’on va entamer ce travail de recherche.
3.1. Introduction:Parmi les nombreux systèmes d'authentification qui ont été proposées et mis en œuvre est
la biométrie des veines doigt qui est en train de devenir la méthode infaillible dans lareconnaissance des êtres humains. Les veines de doigt est une biométrie physiologique
unique pour identifier les individus en fonction des caractéristiques et des attributs
physiques des motifs de veine dans le doigt humain. C’est une avance technologique assez
récente dans le domaine de la biométrie qui est appliqué à différents domaines tels que les
domaines médicaux, financiers, services de maintien de l'ordre et d'autres applications où
des niveaux élevés de sécurité ou de confidentialité devraient être concourus. Cette
technologie est impressionnante car elle nécessite seulement une petite conception mono puce, relativement pas cher, et a un processus d'identification très rapide avec une grande
précision en comparant avec d'autres techniques biométriques d'identification comme les
empreintes digitales, l'iris, le visage et d'autres (9).
Ayant constaté également plus d’avantage de cette modalité, le fait que les modèles des
veines de doigt sont pratiquement impossible de forger, ainsi il est devenu l'une des
nouvelles approches biométrique la plus forte croissance en matière de technologie qui a
trouvé rapidement son chemin dans des nombreuses laboratoires de recherche pour ledéveloppement commercial.
Historiquement, la R & D chez Hitachi du Japon (1997-2000) ont découvert que la
reconnaissance biométrique de l'empreinte digitale était viable pour la technologie
d'authentification personnelle, et en 2000-2005, ils ont été les premiers ayant
commercialisé la technologie dans différentes formes de produits, tels que les guichets
automatiques.
Figure 12 La technologie de reconnaissance des veines de doigt d’HITACHI- Japon
3.2. Techniques d’extraction des caractéristiques :
L'extraction des caractéristiques veineuses est la première étape cruciale dans le processus.
Le but est d'obtenir des arêtes de la veine à partir de l'arrière-plan. Les performances de
reconnaissance sont largement liées avec la qualité des objets extraits des veines.
La pratique courante est d'acquérir des images des veines du doigt par l'utilisation de la
spectroscopie basée sur l'infrarouge proche. Lorsqu'un doigt est placé à travers les rayons
lumineux infra-rouge de longueur d'onde 760 nm, les modèles des veines dans le tissu
sous-cutané du doigt sont capturés car l’hémoglobine désoxygénée dans les veines absorbe
les rayons lumineux. L'image résultante des veines apparaît plus sombre que les autres
régions du doigt, car seuls les vaisseaux sanguins absorbent les rayons. La méthode de
capture a un impact direct sur l'extraction des caractéristiques et les fonctionnalités
d’appariement.
L’extraction des caractéristiques est l'étape critique dans le processus de reconnaissance
des veines du doigt. Les méthodes d'extraction peuvent être classées en deux catégories
basées sur les règles qui déterminent comment le réseau des vaisseaux sanguin sera
segmenté. Pour la première catégorie, le réseau des veines du doigt est segmenté en
premier lieu, puis la forme géométrique, la structure topologique ou d'autres informations
du réseau de vaisseaux sanguins seront segmentés. Toutefois, en raison des faibles qualités
d'images des veine de doigt et les limites des algorithmes de segmentation, les résultats de
segmentation sont souvent insatisfaisant (11), par conséquent, la fonction basée sur le
réseau de vaisseaux sanguins segmentée seraient moins puissante. Pour résoudre ce
problème, une autre catégorie des méthodes d’extraction de caractéristiques (11) a été
proposée, où, après le prétraitement, les caractéristiques seront extraites sans
segmentation. Bien que des résultats d'expériences prometteuses soient rapportés dans
plusieurs recherches antérieures, deux limites de ces méthodes d'extraction peuvent
exister :
La première anomalie est que les informations contenues dans ces fonctions ne sont
pas assez efficaces pour offrir des fonctionnalités plus puissantes et robustes.
Par exemple, (12) propose un opérateur de LLBP (Local Line Binary Pattern) pour la
reconnaissance du doigt veineuse. L'opérateur est constitué de deux composants:
horizontale et verticale. Ces opérateurs peuvent perdre autre information directionnelle, qui peut être important pour la reconnaissance. Dans (13) l’analyse des composantes principale
(ACP) est proposée pour extraire les caractéristiques globales basées sur la règle de
minimiser les erreurs de reconstruction d'image. Cependant, les caractéristiques globales
peuvent ignorer certaines informations locales détaillées, ce qui est important pour la
reconnaissance.
En outre, une autre limitation de ces méthodes, c’est qu'ils traitent toutes les
caractéristiques de la mémé importance dans la correspondance finale. En fait, pour
un sujet, seul un sous-ensemble de caractéristiques distinguent ce sujet d'autres sujets.
Comme mentionné ci-dessus, la plupart des caractéristiques proposées n’impliquent que
des informations de la forme ou de texture.
Pour extraire des caractéristique plus intéressantes, une combinaison efficace des plusieurs
informations tel que les niveaux des gris, la texture et la forme devraient être mise en
évidence. En outre, la méthode d’extraction des caractéristiques qui révèle la texture
globale et les détails locaux des veines du doigt au même temps rendra cette technique plus
robuste.
Dans un travail antérieur, une simple mais puissante méthode a été proposé, elle est basée
sur la représentation spatiale de la pyramide et une combinaison efficace de plusieurs
informations telles que les niveaux de gris, la texture et la forme. On constitue
l'histogramme de pyramide de gris (PHG) et pyramide histogramme de texture (PHT) en
utilisant un procédé qui est similaire à la méthode d'extraction PHOG (14). On se joigne à
l'histogramme de pyramide de gris, histogramme pyramide de texture (opérateurs LBP sont
utilisé pour former l'histogramme de pyramide de texture) avec PHOG (14) pour tenir
com pte des informations globales et locales c’est-à-dire le jumelage des trois
caractéristiques : celles de gris, de la texture et de la forme des veines. Cette approche est
appelé Pyramid Histogram of Gray,Texture and Orientation Gradient (PHGTOG).
Bien que l'information riche fera de la technique plus robuste, mais seule une partie de
l'information est utile pour distinguer un objet à partir d'autres matières, en outre,
l'information non pertinente peut dégrader la précision de reconnaissance et d'accroître la
complexité de calcul.
Par conséquent, la sélection d'un sous-ensemble de fonctions contenant l'information
discriminante est très importante pour la performance de système. En outre, un autre
problème important qui ne doit pas être ignoré, c’est les différences qui existent entre lessujets. Les sous-ensembles de caractéristiques discriminantes sont différents pour les
différents sujets. En conséquence, il est crucial de sélectionner seulement les
caractéristiques personnalisées pour les sujets.
PHGTOG pour la représentation d’image :
PHGTOG est conçu comme une concaténation de l’histogramme de pyramide de gris
(PHG), Pyramide histogramme Texture (PHT) et PHOG (14). PHG peut représenter
l'information statistique de gris globale et gris local, PHT peut refléter l'information
statistique des caractéristiques de texture à des multiples résolutions. PHOG peut
représenter une image par sa forme locale et la disposition spatiale de la forme (14), de
sorte que PHGTOG puisse représenter l'organisation spatiale globale et des détails locaux
de gris, la texture et la forme. On va décrire les détails de PHG, PHT et PHOG dans le paragraphe suivant, PHGTOG est obtenue en combinant PHG, PHT et PHOG.
Extraction des caractéristiques PHG :
Le procédé d'extraction PHG peut être divisé en trois étapes:
a. partitionner chaque image en une séquence de plus en plus fine des grilles
spatiales en doublant à plusieurs reprises le nombre de divisions dans chaquedirection de l'axe à chaque niveau de résolution de pyramide.
b. calculer des histogrammes des gris pour chaque cellule de la grille à chaque niveau
de résolution de pyramide.
c. Concaténer tous les vecteurs de l'histogramme de tous les niveaux de résolution
pour obtenir les caractéristiques finales de l’image. La dernière caractéristique
sera normalisée pour résumer l'unité.
La figure 13 donne les résultats de représentation pyramidale spatiale des gris des deux
images des veines de doigt (Après prétraitement) de différents sujets à différents niveau de
résolution. Comme le montre la Figure 1, le niveau 0 est représenté par un K-vecteur, où K
(dans la figure 1, K = 4) est le nombre de casiers de l'histogramme à chaque grille, niveau
1 par un vecteur 4K, etc., et l'histogramme de gris de l'ensemble de l'image est un vecteurde dimensionnalité K. L est le niveau de résolution de la pyramide de l'image. Fait
caractéristiques locales représentent plus d’informations détaillées, et ils sont donc plus
discriminés que la fonction globale pour les deux images.
Figure 14. Représentation spatiale de la pyramide de Texture. La première rangée et latroisième rangée: deux images de même sujet et des grilles pour les niveaux L = 0 à L = 2;
La deuxième rangée et la quatrième rangée: représentations de l'histogramme
correspondant à chaque niveau. Le vecteur final PHT est une concaténation des vecteurs
Extraction des caractéristiques PHT : Le procédé d'extraction de l'histogramme Pyramidale de texture (l'opérateur de LBP (15)
est utilisé pour représenter la texture) peut être divisé en trois étapes:
a. partitionner chaque image en une séquence de plus en plus fine des grilles spatiales
en doublant à plusieurs reprises le nombre de divisions dans chaque direction de
l'axe à chaque niveau de résolution de pyramide.
b. Calculer LBP (Local Binary Patern) pour les pixels dans chaque cellule de la grille
à chaque niveau de résolution de pyramide. Sur la base du Code de LBP, chaque
pixel peut être représenté par un vecteur de dimension huit contenants 0 et 1. La
somme de tous les huit vecteurs de dimension dans la cellule de la grille
correspondante est l’histogramme de LBP pour cette cellule de la grille. Par
exemple, une cellule de la grille comporte quatre pixels. Les codes de LBP des
pixels sont [0,1,1,1,0,1,0,0], [1,1,0,1,0,1,0,1], [0,1,1,1,0, 1,0,1], [0,1,0,1,1,1,0,0],
respectivement.
L'histogramme de LBP de cette cellule de la grille est [1,4,2,4,1,4,0,2].
c.
Concaténer tous les vecteurs de l'histogramme de tous les niveaux de résolution
pour obtenir les caractéristiques finales pour l’image. La dernière caractéristique est
normalisée pour résumer l'unité.
Figure 14. Donne les résultats de la représentation pyramidale spatiale de texture de deux
images des veines de doigt (après prétraitement) du même sujet à une résolution différente
de niveau. Comme le montre la Figure 14, le niveau 0 est représenté par un vecteur K-
vecteur correspondant à (k = 8) de l'histogramme des bacs, par un niveau 1, 4K-vecteur,etc., et l'histogramme de texture de l'image entière est un vecteur de dimension , où ‘L’est le niveau de l'image.
La deuxième image des veines du doigt est capturée par la rotation de doigt dans une faible
mesure par rapport à la première image.
D'après la figure 14, bien que certaines caractéristiques de texture locales soient différentes
entre ces deux échantillons dues à la petite rotation, les caractéristiques de textures
globales similaires garantiront que les deux images sont classées dans le même sujet. On
devine que la fonctionnalité globale de la texture peut rendre insensible à PHT la petite
rotation.
Extraction des caractéristiques PHOG : PHOG est proposé comme une représentation de la pyramide spatiale du descripteur HOG.
Il atteint des performances prometteuses en reconnaissance de l'objet, qui peut représenter
une image par sa forme locale et de l’agencement spatial de la forme. On utilise PHOG
pour décrire la forme de la veine. Avant d'extraire PHOG, le modèle de la veine doit être
tout d'abord extrait en utilisant le détecteur de bord Sobel , puis on l’utilise après trois
étapes pour obtenir PHOG:
a.
partitionner chaque image en une séquence de plus en plus fine des grilles spatialesen doublant à plusieurs reprises le nombre de divisions dans chaque direction de
l'axe.
b. Calculer histogrammes de gradients d'orientation HOG (16) pour chaque cellule de
la grille à chaque pyramide à un niveau de résolution.
c. Le descripteur de PHOG finale de l'image est une concaténation pondérée de tous
les vecteurs de HOG.
Le PHOG sera normalisée pour résumer l'unité.
La figure 14 donne les résultats de forme de représentation spatiale de la pyramide d'une
image des veines du doigt aux niveaux différents.
Plus de détails sur PHOG peuvent être trouvés dans (14) . Étant donné que max (F) et min
(F) sont les valeurs maximales et minimales des premières caractéristiques,
respectivement, la valeur normalisée des caractéristiques est calculé selon la formule f
'=[max (F)-f)/(f-min(F)].
Dans cette expérience, la dimension de PHG, PHT, et PHOG sont 84, 168, 340,
respectivement. On concatène PHG, PHT et PHOG dans un vecteur de de caractéristique
de 592 dimensions afin d'obtenir PHGTOG.
Figure 15. Forme de représentation spatiale de la pyramide. La première rangée: une des
images et des grilles pour L = 0 à L = 2;
La deuxième rangée: histogramme représentations correspondant à chaque niveau.
% la fonction finger_ROI sert à cropper la ROI à partir de l'empreinte % définie comme parametre (fingerprint) sur laquelle en applique % le filtre de Gabor afin d'avoir comme resultat le vecteur "v" qui % represente le code representatif de fingerprint %-----------------------------------------------------------------------
try [x,y]= centralizing(I); m = imcrop(I, [x-93 y-93 186 186]);
if (size(m,3)==3) m = rgb2gray(m); end %figure(4);imshow(m);
catch
' '
La réalisation de cette application consiste à développer un système basé sur la fusion des
empreintes digitales et les veines des doigts pour la reconnaissance biométrique.
La figure 17 montre les différents stades de fonctionnement du système de reconnaissance
biométrique proposé qu’on aille décortiquer dans la suite, étape par étape.
4.1.2.1 Prétraitement:
Après avoir acquis l’image à traiter, on aura dû l’améliorer en éliminant le bruit dû à
l’acquisition en premier lieu.
L’image contient des données inutiles qui occupe plus d’espace mémoire d’une part, et
influent négativement sur les performances de système d’autre part, comme l’arrière-plan par exemple, ce qui conduit à sélectionner une région des informations pertinentes qui
représente l’unicité de modalité biométrique, cette zone s’appelle ROI (R égion Of
Interest).
A la fin de cette phase, on n’obtient que la zone représentative de l’image qui va être
exploitée dans la suite de processus.
a.
L’empreinte digitale :
Pour ce faire, on a développé un script qui s’appelle finger_ROI qui s’occupe du
prétraitement de l’empreinte digitale en sélectionnant la région ROI à partir de
point de core de l’empreinte qui se situe souvent dans le centre de l’image.
% la fonction vein_ROI sert à cropper la ROI à partir de l'image % définie comme parametre (fingervein) sur laquelle en applique % le filtre de Gabor afin d'avoir comme resultat le vecteur "v" qui % represente le code representatif de fingervein%-------------------------------------------------------------------
%a=imread('middle_3.bmp'); b=rgb2gray(fingervein); %figure(1);imshow(b); c=edge(b,'sobel'); % determination des contures de dois %figure(2);imshow(c); [x,y]=size(c);i=1; while i<=y
for j = 1:x
if c(j,i) == 1 t(i) = j;
break end
end i=i+1;
end m=uint16(mean(t)); for i=1:y
c(m,i)=1;
Après la segmentation de la région ROI à partir de l’image binaire, elle est normalisée en
taille unique de 187×187 pour avoir à la fin de processus des images de taille identique.
Figure 21 Détermination de ROI d’une empreinte digitale à partir des contours.
Cette phase est l’étape la plus cruciale dans toute la conception d’un système
d’authentification biométrique. Elle consiste à représenter l’image sous forme d’un code
des attributs qui récapitule les caractéristiques pertinentes de l’image. Ce code représentenettement la précision de système.
L‘approche proposée pour l’extraction des caractéristiques des deux modalités
biométriques choisies dans ce travail (l’empreinte digitale et les veines de doigt) est basée
sur le traitement global de l’image qui tient en compte toute la ROI obtenue de la phase
précédente. Ce choix est motivé par le fait d’accroitre considérablement le taux des
caractéristiques uniques des sujets traités ce qui engendre un système de reconnaissance plus au moins performant.
Pour concrétiser cette technique, le filtre de Gabor est appliqué sur une image afin d’avoir
un vecteur de données (caractéristiques) qui représente le code de l’image qu’on va utiliser
dans l’appariement (comparaison) pour décider de l’authenticité du sujet en question.
C’est quoi un Filtre de Gabor ? Et comment ça marche ?
Les filtres de Gabor sont des opérateurs particulièrement commodes pour l'extraction et la
détection de contours. En effet, On est capables avec leur aide d'isoler dans une image descomposantes très variées, qui vont de gros objets clairement définis à de fins détails
d'orientation particulière, en changeant simplement deux paramètres : la fréquence et
l'orientation. Ces deux éléments indissociables sont les deux caractéristiques nécessaires et
suffisantes à la description d'une ligne de contour : son épaisseur et sa direction. Il est
montré que le système visuel humain procédait de manière analogue pour la détection de
contours. En ceci, nous ne saurions classer la méthode des filtres de Gabor dans les «
anciennes » ou les « nouvelles » techniques, on devra plutôt la qualifier de techniquenaturelle.
Fonction et Filtre de Gabor (19) On appelle fonction de Gabor l'association d'une courbe de Gauss et d'une sinusoïde
orientée (voir figure 23). En traitement d'images, on travaille dans le domaine spatial en
dimension 2, ce qui permet d'écrire la fonction de Gabor de la manière suivante :
Où est l'orientation de la sinusoïde, f sa fréquence et x (respectivement y) l'écart-typede la gaussienne selon l’axe des abscisses (respectivement des ordonnées).
Figure 24 Représentation tridimensionnelle de la fonction de Gabor
En appliquant cette fonction à un masque de convolution, on définit un filtre deconvolution qu’on appelle filtre de Gabor (voir Figure 24)
Figure 25 Masque du filtre de Gabor de rayon 21 pixels pour θ =0, f =√2 /10 et σx= σ y=7
L'application d'un filtre de Gabor g de masque M à une image I , se résume donc à la
Si on utilise plusieurs fréquences,le tracé devient beaucoup plusnet, le filtre est sensible à de plusnombreux contours en termesd'épaisseur.
TABLEAU 1 Influence des paramètres du filtre de Gabor (19) (19)
Dans ce travail, on a concrétisé ce filtre de Gabor par les deux fonctions : construct_Gabor_filters_PhD et filter_image_with_Gabor_bank_PhD de bibliothèques
filtrées à faire encore un traitement plus efficace. Les réponses d'amplitude des opérations
de filtrage sont normalisées après la réduction d'échelle en utilisant de moyenne nulle et de
variance unité de normalisation. Après cela, elles sont ajoutées à l'image de vecteur de
sortie filtré. Après l’exécution de la fonction, toutes les réponses de filtre de magnitudeforment des vecteurs concaténés dans le vecteur filtered_image.
4.1.2.3. Fusion des caractéristiques :
Cette étape consiste à fusionner les caractéristiques des deux modalités : les veines de doigt
et l’empreinte digitale du même doigt pour avoir en conséquence un seul vecteur qui
représente le code de doigt qui sera utilisé dans la suite de processus d’authentification
reposant sur le doigt en objet pour pouvoir identifier/vérifier un sujet donné, ou pour le
stade de fusion avec d’autre doigts afin de consolider l’approche proposée aux termes des
performances et précision des résultats obtenus.
4.1.2.4. La comparaison :
Il en existe deux modes de comparaison dans le présent processus d’authentification :
Comparaisons des caractéristiques :
Bien qu’ils existent des nombreux algorithmes de reconnaissance biométriques qui
fonctionnent bien dans des environnements contraints, divers changements au niveau des
images présentent un grand défi face à un système de reconnaissance qui doit être robuste
en ce qui concerne les grandes variabilités de celles-ci comme l’éclairage.
Pour faire face à ce problème, il est important de choisir une représentation appropriée de
ces images. Cette représentation doit être compacte et significative.
Ce genre de représentativité est utilisé souvent dans les algorithmes de la reconnaissancede visage mais ça n’empêche pas d’en profiter de ces techniques afin d’optimiser le code
de l’image obtenu de la phase d’extraction des caractéristiques notamment le vecteur des
caractéristiques de filtre de Gabor concernant les deux modalités étudiées dans ce contexte
dont l’empreinte digitale et les veines de doigt.
Le but donc est de donner un panorama des méthodes les plus significatives en
L’algorithme ACP est né des travaux de MA. Turk et AP. Pentland au MIT Media Lab, en
1991. L’idée principale consiste à exprimer les M images de départ selon une base de
vecteurs orthogonaux particuliers ‘’ les vecteurs propres ‘’ contenant des informations
indépendantes d’un vecteur à l’autre. Ces nouvelles données sont donc exprimées d’une
manière plus appropriée à la reconnaissance biométrique.
En termes mathématiques, cela revient à trouver les vecteurs propres de la matrice de
covariance formée par les différentes images de la base d’apprentissage.
Donc, l’ACP ne nécessite aucune connaissance à priori sur l’image et se révèle plusefficace lorsqu’elle est couplée à la mesure de distance Mah Cosine, mais sa simplicité à
mettre en œuvre contraste avec une forte sensibilité aux changements d’éclairement, de
pose et d’expression faciale.
L’analyse Discriminante Linéaire (LDA) (20) :
L’algorithme ADL est né des travaux de Belhumeur et al. De Yale University (USA), en
1997. Il est aussi connu sous le nom de « Fisherfaces ».Contrairement à l’algorithme PCA,
celui de l’ADL effectue une véritable séparation de classes. Pour pouvoir l’utiliser, il faut
donc au préalable organiser la base d’apprentissage d’images en plusieurs classes : une
classe par personne et plusieurs images par classe. L’ADL analyse les vecteurs propres de
la matrice de dispersion des données, avec pour objectif de maximiser les variations entre
les images d’individus différents (interclasses) tout en minimisant les variations entre les
images d’un même individu (intra-classes).
Cependant, lorsque le nombre d’individus à traiter est plus faible que la résolution de
l’image, il est difficile d’appliquer l’ADL qui peut alors faire apparaître des matrices de
dispersions singulières (non inversibles).
Comme l’ACP ne prend pas en compte la discrimination des classes, l’ADL est conçu pour
remédier à ce problème. Les méthodes basées sur ADL standard telles que ‘Fisherfaces’ ,
appliquent en premier lieu l’ACP pour la réduction de dimension et puis l'analyse
Cette entrée peut être une seule image (un seul vecteur) d’où le résultat ‘feat’ doit contenir
un seul vecteur représentant l’image en entrée, ou un ensemble des images donc une
matrice ou le résultat ‘ feat’ doit être aussi une matrice correspondant à la matrice de test X.
On conclusion, ces deux fonctions permettent de représenter la matrice d’apprentissagesous forme d’un modèle des sous calasses représentant les individus, en utilisant la
technique d’analyse discriminante KFA d’un côté, et de projeter ce modèle obtenu sur la
matrice de test afin d’obtenir aussi une matrice des sous classes représentant l es sujets de
test.
Ces deux modèles (d’apprentissage et de test) sont utilisés dans le calcul des distances ou
de similarité des caractéristiques pour pouvoir effectuer une décision sur l’authenticité des
sujets en question.
Mesure des distances :
Lorsqu’on souhaite comparer deux vecteurs de caractéristiques issus du module
d’extraction de caractéristiques d’un système biométrique, on peut soit effectuer une
mesure de similarité (ressemblance), soit une mesure de distance (divergence).
La première catégorie de distances est constituée de distances Euclidiennes et sont définies
à partir de la distance de Minkowski d’ordre p dans un espace euclidien (N déterminant
la dimension de l’espace euclidien).
Considérons deux vecteurs X = (x1, x2, ..., x N) et Y = (y1, y2, ..., y N), la distance de
Minkowski d’ordre p notée est définie par :
∑ | |
…………. A.1
On va présenter quelques mesures de distance dans l’espace original des images puis dans
l’espace de Mahalanobis.
A. Distances Euclidiennes
A.1. Distance City Block (L1)Pour p = 1, on obtient la distance City-Block (ou distance de Manhattan) :
D’où la formule finale de la mesure de similarité MahCosine :
|||| , =- ……. A.7
Où est la mesure de distance équivalente. On peut enfin noter qu’il s’agit
principalement de la covar iance entre les vecteurs dans l’espace de Mahalanobis.
Dans ce cas de figure, la fonction return_distance_Phd de Phd_tool (annexe1) sera
appliquée pour mesurer la distance entre deux vecteurs des caractéristiques
d = return_distance_PhD(x,y,dist,covar)
Cette fonction peut prendre deux, trois ou quatre paramètres comme entrées. Les deux
paramètres représentent les deux vecteurs des caractéristiques à comparer. Le troisième
paramètre défini le type de distance à utiliser et le dernier représente la matrice de
covariance de la matrice d’apprentissage.
Cette fonction est la méthode primordiale dans le script nn_classification_Phd qui prend
comme paramètres les deux matrices d’apprentissage et de test pour calculer les scores de
correspondance qui seront représentés dans une structure qui contient nécessairement la
matrice de similarité qui peut être exploitée dans la représentation graphique des courbes
ROC, CMC ou d’autres fins statistiques comme le taux d’EER ou le taux de
reconnaissance de premier rang ou d’autre techniques d’évaluation des performances
biométriques.
4.1.2.3 Fusion des scores :
La fusion au niveau des scores est le type de fusion le plus utilisé car elle peut être
appliquée à tous les types de systèmes (contrairement à la fusion pré-classification), dans
un espace de dimension limité (un vecteur de scores dont la dimension est égale au nombre
de sous-systèmes), avec des méthodes relativement simples et efficaces mais traitant plus
d'information que la fusion de décisions. La fusion de scores consiste donc à laclassification : OUI ou NON pour la décision finale, d'un vecteur de nombres réels dont la
dimension est égale au nombre de sous-systèmes. Il existe un grand nombre de méthodes
de fusion de scores qui sont présentée dans le paragraphe suivant.
Les méthodes de fusion de scores combinent les informations au niveau des scores issus
des modules de comparaison comme indiqué sur la figure suivante.
Figure 28 Schéma de la fusion des scores.
Il existe deux approches pour combiner les scores obtenus par différents systèmes. La
première approche est de traiter le sujet comme un problème de combinaison, tandis quel’autre approche est de voir cela comme un problème de classification. Il est important de
noter que Jain et al (21) ont montré que les approches par combinaison sont plus
performantes que la plupart des méthodes de classification.
1) Approche par combinaison de scores :
Consiste à traiter le sujet comme un problème de combinaison de scores par des méthodes
mathématiques de combinaison. Dans l’approche par combinaison, les scores individuelssont combinés de manière à former un unique score qui est ensuite utilisé pour prendre la
décision finale. Afin de s’assurer que la combinaison de scores provenant de différents
systèmes soit cohérente, les scores doivent d’abord être transformés dans un domaine
commun : on parle alors de normalisation de score.
Elle consiste à voir cela comme un problème de classification des scores. Plusieurs
classifieurs ont été utilisés pour classifier les scores de correspondance afin d’arriver à une
décision. Dans l’approche par classification, un vecteur de caractéristiques est construiten utilisant les scores donnés en sortie par les systèmes individuels ; ce vecteur est ensuite
attribué à une des deux classes : Client ou Imposteur. En général, le classifieur utilisé pour
cette opération est capable d’apprendre la frontière de décision sans tenir compte de la
manière dont le vecteur de caractéristiques a été généré. Ainsi, les scores en sortie de
différentes systèmes peuvent être non-homogènes (mesure de distance ou de similarité,
différents intervalles de valeurs prises, etc.…) et aucun traitement n’est requis avant de les
envoyer dans le classifieur.
Dans ce cadre de travail, on s’intéresse de la première approche de fusion à savoir la
méthode de combinaison des scores qui se subdivise elle-même en deux catégories qui
sont : les méthodes de combinaison simples et la combinaison des scores par logique flou.
La théorie de la logique floue (des sous-ensembles flous) a été introduite par Zadeh en
1965 comme une extension de la logique binaire d’une part et une amélioration de la
logique multivaluée (admettant plusieurs valeurs de vérité) d’autre part. L’importance de la
logique floue réside dans le fait qu’elle s’approche du raisonnement humain par
l’intégration et le traitement du caractère approximatif, vague, imprécis ou flou de la
connaissance humaine. Les termes linguistiques tels qu’environ, moyenne,
approximativement sont de nature à donner un caractère flou aux phrases énoncées. Par
exemple, la règle « si le prix est inférieur à 6000 DA, j’achète » sera intuitivement
utilisable si le prix est de 6002 DA, mais elle ne pourrait être exploitée en logique
classique puisque le prix indiqué ne satisferait pas la prémisse.
Méthode de combinaisons simples :
Les méthodes de combinaisons de scores simples sont des méthodes très simples dont
l'objectif est d'obtenir un score final s à partir des N scores disponibles si pour i = 1 à N
issus de N systèmes. Les méthodes les plus utilisées sont la moyenne, le produit, le
La présente application de reconnaissance biométrique est validée par une base de donnéesmultimodale SDUMLA-HMT (22) qui a été collectée par le groupe Shandong University
learning Machine and Applications, Jinan, la Chine en 2010.
106 sujets, dont 61 hommes et 45 femmes avec l'âge entre 17 et 31 ans, ont participé à la
collection des données, processus dans lequel tous les cinq traits biométriques : le visage,
les veines des doigts, la marche, l'iris et les empreintes digitales sont collectés pour
chaque sujet.Par conséquent, il y a cinq sous bases de données inclus dans SDUMLA-HMT, c’est à dire,
une base de données de visage, celle des veines du doigt, de la marche, de l'iris et pour les
empreintes digitales. Il est à noter que dans les 5 sous bases de données, tous les traits
biométriques avec la même identité de personne sont capturés à partir du même sujet.
Deux sous bases de données sont choisies dans cette expérimentation à savoir : les
empreintes digitales et les veines des doigts.
a. Les veines du doigt :
La reconnaissance des veines du doigt est un sujet de recherche récemment mis au
point. On inclue dans SDUMLA-HMT une base de données des veine des doigts qui,
au mieux de connaissance de l’auteur, c’est la première base de données de veines du
doigt gratuite.
Le dispositif utilisé pour capturer des images des veines du doigt est conçu par Joint
Lab pour Intelligent computing end systèmes intelligents de l'Université de Wuhan.Dans le processus de capture, chaque sujet est demandé de fournir des images de son
index, majeur et l'annulaire des deux mains, ainsi que la collecte de chacun des six
doigts est répétée six fois pour obtenir six images veineuses du même doigt. Quelques
exemples d'images sont présentés dans la figure suivante.
Figure 31 Quelques exemples des images des veines du doigt.
- La démonstration consiste à fusionner deux traits biométriques qui sont l’empreinte
digitale et les veines du doigt, précisément, des deux doigts qui sont choisis ; l’index et
le majeur des deux mains droite et gauche, c’est-à-dire, on aura deux modalités de quatre
doigts à traiter (c.-à-d. un total de 2×4=8 traits biométriques) pour chaque sujet.
- L’expérimentation est réalisée sur la base de données issue du capteur AES2501
uniquement pour les empreintes digitales ainsi que celle des veines des doigts de
SDUMLA-HMT.
- Six prises de chaque trait biométrique ont été effectuées pour chaque sujet des 106 de la
base de données, on a réparti les prises en deux : trois pour l’apprentissage et trois pour le
test. Donc, on aura deux matrices de n×318 dont une pour l’apprentissage et l’autre pour
le test, ou n représente le nombre des caractéristiques extraites d’une ou plusieurs
modalités fusionnées pour chaque individu.
- Le nombre total des images mises en évidence est de : 8×6×106=5088 images dont 2544
empreintes digitales et 2544 images des veines des doigts.
- L’évaluation des performances de l’application proposée est calculée à partir d’un
nombre des tests de 106x3=318 clients, et 105×106×3= 33390 tests d’imposteurs, cenombre important permet de créditer considérablement l’algorithme de reconnaissance
biométrique proposé.
Scénario 1 :
On consiste en premier lieu à appliquer une approche biométrique unimodale basée la
reconnaissance des empreintes digitales et des veines des doigts de l’index et le majeur des
deux mains droite et gauche pour chaque personne.
Scénario 2 :
Concernant ce scenario, on a entamé la première étape de fusion qui consiste à fusionner
les caractéristiques des deux traits (empreinte et les veines du doigt) du chaqu’un des
quatre doigts dont l’index gauche, le majeur gauche, l’index droit et le majeur droit.
Constatant que la courbe qui représente les résultats de l’approche de fusion proposée(scenario 5) part d’un taux de reconnaissance de 100% dès le premier rang, ce que veut
dire, on identifiera un suspect dès le premier essai, ce qui preuve que cette nouvelle
technique a propulsé les recherches vers l’extrême dans le domaine d’authentification
biométrique.
4.2.5 Conclusion :
La phase expérimentale a eu lieu dans ce chapitre où l’aspect d’unimodalité a été
concrétisé ainsi que celui de multimodalité en plusieurs volets.
La fusion multimodale est mise au point au niveau des caractéristiques et au niveau des
scores. Les limites de ces deux niveaux de fusion sont bien discutées pour aboutir au
dernier ressort d’une nouvelle approche de fusion optimale qui a présenté des niveaux de
La croissance importante des transactions dans le marché électronique fait de l’authenticité
des partenaires un sujet chaud vue la contrefaçon due à l’usurpation des identités qui
nécessite des dispositifs ultra sécurisés pour maintenir un niveau agréable des services
rendus.
Pour répondre à ces fins, les systèmes de reconnaissances biométriques ont été introduits
afin de remédier aux limites des systèmes d’authentification classiques.
Dans ce travail, un système de reconnaissance biométrique basé sur la fusion des
empreintes digitales et des veines des doigts, est réalisé. Cette approche est conçue en
relatant toutes les étapes nécessaires de traitement des images des modalités en objet dès le
prétraitement, l’extraction des caractéristiques, la comparaison et les différentes variantes
de fusion vus dans ce travail dont la fusion au niveau des caractéristiques, au niveau des
scores et la nouvelle technique proposée dite la fusion hybride qui regroupe les deux
modes de fusion cités dans le même algorithme. Les résultats obtenus sont représentés sous
forme des graphes : ROC et CMC qui permettent également d’évaluer les performances du
système biométrique en présentant quelques taux et métriques d’évaluation comme le taux
d’identification, le taux d’erreur égal et le taux d’évaluation.
En premier lieu une technique unimodale à base des empreintes digitales ou des veines des
doigts a été présentée, dans laquelle ce dernier trait biométrique a offert un système
beaucoup plus performant par rapport à l’empreinte digitale.
Néanmoins, l’unimodalité reconnait des limites dans les résultats d’authentification -en
matière des taux d’identification par exemple-, qui vont de 26 à 45% pour les empreintesdigitales et 29 à 68% pour les veines des doigts ce qui nous pousse vers une approche
multimodale qui a permis d’augmenter considérablement les performances du présent
processus, à savoir des taux de reconnaissance allant jusqu’à 100% par exemple.
Un état comparatives des différentes techniques de fusion est passé en revu et notamment
entre la fusion des caractéristiques et celles des scores qui ont donné des résultats
relativement rapprochés, la technique de fusion des caractéristiques était plus performante
par rapport à celles des scores, mais cette dernière est plus souple en résolution des cas des
modalités manquantes d’un sujet. À cet égard, on a opté pour une nouvelle technique
optimale afin d’en profiter des privilèges des deux modes de fusion, la souplesse
d’algorithme de fusion hybride qui permet de résoudre des systèmes d’authentification à un
sujets même à un seul doigt, d’un côté, et les résultats perspicaces de reconnaissance(100%), d’un autre côté.
En dépit des résultats géniaux obtenus de cette approche de reconnaissance proposée, la
taille des matrices d’enrôlement demeurent plus au moins importantes, autrement dit, la
phase de prétraitement a engendré des codes des traits biométrique relativement importants
suite au mode de traitement globale ou de texture appliqué dans cette phase, ce genre de
traitement tient en compte des zones inutiles qui seront figurés également dans le code des
caractéristiques de modalités traitées qui sera utilisé dans l’appariement.
Dans les futures travaux, des techniques de traitement locale vont être mis en œuvre dans
les phases de prétraitement et d’extraction des caractéristique des traits biométriques
étudiés afin de réduire ses codes représentatifs et que seules les caractéristiques uniques
seront prises en considération.
Malgré la richesse de la plateforme de programmation Matlab en matière des outils et des
fonctions prédéfinies qui facilitent le développement des scripts complexe, ce langagereconnait une lenteur remarquable en temps d’exécution. A cet effet, les travaux ultérieurs
seront développés sous d’autres langages comme C et JAVA qui permettront de réduire
significativement le temps de calcul.
Toutes ces démarches vont permettre d’accélérer considérablement les processus
La boîte à outils PhD (Pretty helpful Development) pour la reconnaissance du visage est
une collection de fonctions et des scripts Matlab destinée à aider les chercheurs à travailler
dans le domaine de la reconnaissance des visages. La boîte à outils a été produite comme
un sous-produit des travaux de recherche et elle est disponible gratuitement pour le
téléchargement.
La boîte à outils PhD comprend des implémentations de certaines techniques de
reconnaissance faciale populaires, comme l’analyse des composantes principales (PCA),
l'analyse discriminante linéaire (LDA), noyau en analyse des Composantes Principales
(KPCA), Kernel Fisher Analyse (KFA). Elle dispose aussi des fonctions pour la
construction de filtre de Gabor, filtrage Gabor, et tous les autres outils nécessaires pour la
construction des techniques de reconnaissance de visage basé sur les techniques de Gabor.
En plus des techniques énumérées, il y a aussi un certain nombre d'outils d'évaluationdisponible dans la boîte à outils, qui permettent facilement de construire des courbes et des
métriques d’évaluation des performances pour la reconnaissance de visage. Ces outils
permettent de calculer la courbe ROC (Receiver Operating Characteristics), la courbe EPC
(courbes de rendement attendus) et CMC (cumulative matching score curbe).
Plus important encore (surtout pour les débutants dans ce domaine), la boîte à outils
contient également plusieurs scripts de démonstration qui démontrent comment construire
et évaluer un système complet de reconnaissance faciale. Les scripts de démonstrationmontrent comment aligner les images de visage, comment extraire des caractéristiques,
cultiver et normaliser des images, comment classer ces caractéristiques et, enfin, la façon
d'évaluer les performances de système et présenter les résultats sous forme des courbes et
Au cours de la dernière décennie, de multiples méthodes pour l'analyse et la classification
de données fondées sur la théorie des espaces de Hilbert à noyau reproduisant ont été
développées. Elles reposent sur le principe fondamental du kernel trick, initialement
exploité dans le cadre des Support Vector Machines (SVM). Celui-ci permet d'étendre au
cas non-linéaire des traitements initialement linéaires en utilisant la notion de noyau. Laméthode KFD, pour Kernel Fisher Discriminant , constitue ainsi une généralisation non-
linéaire de l'analyse discriminante de Fisher. Bien que son efficacité soit indiscutable, on
déplore le fait que sa mise en œuvre nécessite le stockage et la manipulation de matrices de
dimension égale au nombre de données traitées, point critique lorsque l'ensemble
d'apprentissage est de grande taille (24).
Espaces à noyau reproduisant et condition de Mercer
Soit H un espace fonctionnel hilbertien réel de produit scalaire <・ ; ・ >H , composé de
fonctions ψ continues sur un ensemble X .
D'après le théorème de représentation de Riesz, il existe une fonction unique κ( x i , x j ) de la
variable x i, étant donné x j , telle que :
ψ( x j ) =<ψ ; κ( ・ , x j)>H , ∀ψ ∈ H. (1)
Dans cette expression, κ( ・ , x j ) désigne une fonction définie sur X , obtenue en fixant le
second argument de κ à x j. Il en résulte que l'ensemble {κ( ・ , x ) : x ∈ X } engendre H , et
que le produit scalaire < ・ ; ・ >H ne nécessite d'être défini que sur cet ensemble de
générateurs. Au vu de cette propriété, κ est appelé noyau reproduisant de H .
En notant φ( x ) la fonction κ( ・ , x ), l'équation (1) implique :
Pour tout x i, x j ∈ X . Ce résultat signifie que κ( x i , x j ) fournit le produit scalaire des images
dans H de toute paire d'éléments de l'ensemble X . En autorisant l'exploitation de ce concept
sans nécessairement connaître explicitement H et φ, la condition de Mercer a contribué
aux plus récents développements des structures à noyau.
Méthode KFD :
Supposons qu'on dispose d'un ensemble d'apprentissage constitué de n individus , se
répartissant en n1 et n2 représentants des deux classes en compétition C 1 et C 2. La
méthode KFD suppose que l'on applique préalablement une transformation non linéaire
φ(. ) aux données, les représentant ainsi dans un espace image noté F , puis que l'onrecherche un vecteur w de sorte que la statistique λ( x ) = wt φ( x ) maximise le critère de
Fisher défini ainsi :
(3)
Où
∑ ( ) (4)
∑ ∑∈ () (5)
Dans les expressions ci-dessus, et désignent les moyennes dans F des données de
la base d'apprentissage, respectivement avec et sans distinction de leur classe
d'appartenance, soit :
∑ ∑ ∈ (6)
Notons au passage la relation de Huygens stipulant que S = V + B, où S désigne la matrice
de covariance estimée à partir des observations sans distinction de leur classe
La maximisation de J ( w ) revient à trouver une direction w maximisant conjointement la
dispersion interclasse et minimisant la dispersion intra-classe, respectivement estimées à
partir de B et V . On montre que l'expression (3), connue sous le nom de Quotient de
Rayleigh, est maximale lorsque w est un vecteur propre vérifiant l'équation
Bw = γVw , (8)
Où γ désigne l'unique valeur propre non nulle associée. On a alors J ( w ) = γ. En combinant
l'expression ci-dessus et la relation de Huygens, on aboutit au problème équivalent
suivant :
Bw = γ ( S − B )w = γ Sw , (9)
Avec γ= . Si l'on souhaite s'affranchir de la résolution des problèmes (8) ou (9), une
alternative consiste à remarquer directement que B peut être reformulée selon :
( ) (10)
Et que Bw est en conséquence colinéaire à ( ). À partir de la relation (8), on
aboutit alors au système linéaire suivant :
Vw=( ) (11)
La constante γ ayant été ignorée parce qu'elle n'influe pas sur w. On note que la dimension
de l'espace image F de φ( ・ ) limite l'intérêt pratique de cette approche qui, en théorie,
permet de donner un caractère non-linéaire à l'analyse discriminante de Fisher grâce à une
transformation préalable des données. Il est possible de contourner cet obstacle en
remarquant que le domaine de recherche de w peut être limité à l'espace linéaire induit par
φ( x ), toute composante w⊥ extraite de l'espace complémentaire étant sans effet sur lastatistique λ( x )=wt φ( x ). Plus précisément encore et conformément au RepresenterTheorem
(25), l'information disponible sur l'observation x se bornant aux données de l'ensemble
d'apprentissage, le domaine de recherche de w peut être restreint à l'espace linéaire induit
par les éléments φ( ) , c'est-à-dire :
∑ (12)
Ceci mène directement à l'expression duale λ( x ) = αt κ ( x ) de la statistique, avec α levecteur de composantes αk et κ ( x ) = [κ( x , x 1 ) . . . κ( x , x n)]t . En substituant S à V dans la
définition (3) compte tenu de l'équivalence observée entre les problèmes (8) et (9), puis en
combinant celle-ci avec l'expression (12), on aboutit finalement au critère suivant :
(13)
Dans cette expression, et avec δ = μ2 − μ1 , où μ et μi
désignent les moyennes des vecteurs κ ( x ) de la base d'apprentissage, respectivement sans
et avec distinction de leur classe Ci d'appartenance. De plus, K désigne la matrice de Gram
de terme général Ki j = κ( x i , x j ). Par analogie avec le critère (3) et le résultat (11) de sa
maximisation, on en déduit que α peut être obtenu en résolvant le système linéaire suivant :
Nα = ( μ2 − μ1 ) (13)
On note que la taille de ce problème est indépendante de la dimension de l'espace image F ,
ce qui permet d'accéder à une très grande diversité d'espaces d'analyse au prix d'une charge
calculatoire fixe. La figure 1 illustre les possibilités offertes par cette méthode sur des
problèmes issus de (26), où ils servent à illustrer les limites d'une approche linéaire. En
particulier, la figure 1.(a) correspond au choix d'un noyau polynômial de degré 3, tandis
que la figure 1.(b) résulte d'un noyau gaussien de largeur de bande unité. Si les possibilités
offertes par une telle approche semblent illimitées, il convient toutefois de noter que lataille du système (13) est égale à celle de la base d'apprentissage. Parce que cette
singularité peut mener à une situation de blocage lorsque les données disponibles
abondent, on présente un algorithme séquentiel ne nécessitant pas la manipulation de