Veuillez utiliser cette adresse pour citer ce document :
https://di.univ-blida.dz/jspui/handle/123456789/13009
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | Atif, Rahil | - |
dc.contributor.author | Messraoui, Nacera | - |
dc.date.accessioned | 2021-11-17T10:13:32Z | - |
dc.date.available | 2021-11-17T10:13:32Z | - |
dc.date.issued | 2021 | - |
dc.identifier.uri | http://di.univ-blida.dz:8080/jspui/handle/123456789/13009 | - |
dc.description | 621.1053 ; 78 p | fr_FR |
dc.description.abstract | La détection des visages est devenue l'une des méthodes les plus populaires dans la détection d'objets. L'application de la détection des visages dans des scènes réelles est toujours confrontée à certains défis en raison de l'influence de facteurs complexes. Les techniques d'apprentissage en profondeur sont apparues comme une stratégie puissante qui a fourni une solution alternative pour imiter la vision humaine. Ces techniques sont basées sur des réseaux neuronaux tels que les réseaux neuronaux convolutifs (CNN). Notre approche consiste à détecter des visages aussi lointains que possible dans des scènes denses et en temps réel, où de nombreuses interférences limitent l'efficacité des informations pour la détection. Pour ce faire, on a adopté le modèle YOLO_Face pour la détection, une étude comparative a été faite avec le modèle YOLO5Face | fr_FR |
dc.language.iso | fr | fr_FR |
dc.publisher | Univ Blida1 | fr_FR |
dc.subject | détection d’objets, détection de visages, vision par ordinateur, apprentissage profond, YOLO, temps réel, scènes denses, OpenCV | fr_FR |
dc.title | Evaluation d’un algorithme de Deep learning pour l’amélioration du taux de détection d’objets multiples dans des scènes denses | fr_FR |
Collection(s) : | Mémoires de Master |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
MEMOIRE_FINAL.pdf | 3,57 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.