Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/24953
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorBenabida, Lalouani
dc.contributor.authorHamdani, Younes
dc.contributor.authorCheggaga, Nawal (promotrice)
dc.date.accessioned2023-09-26T08:56:38Z
dc.date.available2023-09-26T08:56:38Z
dc.date.issued2023
dc.identifier.urihttps://di.univ-blida.dz/jspui/handle/123456789/24953
dc.descriptionMémoire de Master option Avionique.-Numéro de Thèse 026/2023fr_FR
dc.language.isofrfr_FR
dc.publisherblida 01fr_FR
dc.subjectDronesfr_FR
dc.subjectDétection acoustiquefr_FR
dc.subjectRéseaux de neurone convolutifsfr_FR
dc.subjectspectrogramme Le développement des drones et les menaces qu’ils représentent pour les sites sensibles rendent critiques leur localisation et identification. Plusieurs modalités sont disponibles pour traiter ce problème comme l’imagerie optique ou radar, la détection de communications radiofréquence ou encore l’acoustique. C’est sur cette dernière modalité que ce travail s’articule .Il s’agit de développer un module acoustique pour la détection et l’identification de sources acoustiques de type mini- drone. Afin de protéger des sites sensibles contre les drones artisanaux. Les résultats obtenus au cours de cette recherche démontrent clairement l’efficacité de réseaux de neurones spécifiquement CNN dans la classification de sons de drones transformés sous forme d’image de spectrogramme. Avec une précision de 98%.fr_FR
dc.titleReconnaissance par apprentissage automatique de signatures acoustique de dronefr_FR
dc.typeThesisfr_FR
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
memoire.pdf4,45 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.