Please use this identifier to cite or link to this item:
http://localhost:8080/xmlui/handle/123456789/30750Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | SOUILAMAS Amir | - |
| dc.contributor.author | YAHIAOUI Raiane | - |
| dc.date.accessioned | 2024-10-01T08:49:12Z | - |
| dc.date.available | 2024-10-01T08:49:12Z | - |
| dc.date.issued | 2024 | - |
| dc.identifier.uri | https://di.univ-blida.dz/jspui/handle/123456789/30750 | - |
| dc.description | 4.621.1292;89p | fr_FR |
| dc.description.abstract | Le but de ce projet est de faire une etude comparative entre deux reseaux de neurones convolutifs profonds qui effectuent la reconnaissance par l’iris (ResNet50 et MobileNetV2). Pour diminuer le temp d’entrainement et le cout en ressources informatiques, on utilise le transfer learning en ajoutant les poids de l’architecture ImageNet. On a appliqué une variété de pretraitement, sur les bases de données Casia-Iris-Thousand et UbirisV2. L’algorithme SIFT a aidé a localiser d’importants motifs dans l’iris : les keypoints. On a ensuite dererminer quelle combinaison d’architecture et de dataset donnait les meilleurs résultats pour la reconnaissance par l’iris. ResNet50 avec UbirisV2 a donné la meilleure precision. Le model basé sur ResNet50 avec Casia-Iris-Thousand prétraité avec l’algorithme SIFT, a montré des histograms avec des motifs detecté concentré sur l’iris. MobileNetV2 a la possibilité d’etre implementé dans des systemes embarqué et dans des applications mobiles. | fr_FR |
| dc.language.iso | fr | fr_FR |
| dc.publisher | blida1 | fr_FR |
| dc.subject | etude comparative entre deux reseaux de neurones convolutifs profonds | fr_FR |
| dc.title | Comparative study of deep neural networks architectures, using CASIA and UbirisV2 datasets for iris recognition | fr_FR |
| Appears in Collections: | Mémoires de Master | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| the final one .pdf | 2,77 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.