Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/40856
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorDJEZZAR Khalida-
dc.contributor.authorESSID Ikram-
dc.date.accessioned2025-10-30T10:37:21Z-
dc.date.available2025-10-30T10:37:21Z-
dc.date.issued2025-
dc.identifier.urihttps://di.univ-blida.dz/jspui/handle/123456789/40856-
dc.description4.621.1.1400;94pfr_FR
dc.description.abstractNotre projet a pour objectif de concevoir un système intelligent basé sur l’apprentissage profond pour la détection et la reconnaissance des panneaux de signalisation routière. Le modèle YOLO (You Only Look Once) est utilisé comme apprentissage supervisé pour détecter des objets se trouvant sur une image numérique. Le YOLOv11, été choisi comme modèle d’apprentissage supervisé pour sa légèreté et sa capacité à fonctionner efficacement en temps réel, entrainé à partir de données annotées via la plateforme Roboflow.Le Roboflow est un outilpour l’annotations des images sur lesquelles figurent des régions d’intérêt à détecter (ROI, Region of intrest).Nous avons mis en œuvre diverses techniques utilisant différentes versions de Yolo11 au sein de l’interface graphique pour détecter des panneaux de signalisation sur des images, des vidéos et webcam. Il intègre notamment des modules d’OCR (Reconnaissance Optique de Caractères), une gestion de la résolution (DPI) pour tester la robustesse du système proposé, des images bruitées utilisé ainsi que des images prise dans des conditions réelles de circulation.fr_FR
dc.language.isofrfr_FR
dc.publisherblida1fr_FR
dc.subjectYOLOv11, traitement d’image, apprentissage profond, Roboflow, panneaux de signalisation.fr_FR
dc.titleDétection automatique des panneaux de signalisation routière basée sur YOLOv11fr_FR
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Mémoire_ESE13 (1) 1400-9572.pdf5,78 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.