Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/10105
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorBennanni, Zakaria-
dc.contributor.authorKhour, Khadidja-
dc.date.accessioned2021-02-23T10:00:57Z-
dc.date.available2021-02-23T10:00:57Z-
dc.date.issued2020-
dc.identifier.urihttp://di.univ-blida.dz:8080/jspui/handle/123456789/10105-
dc.description4.621.1.795 ; 95 p ;illustréfr_FR
dc.description.abstractAvec la popularité de l'utilisation de modèles basés sur l'apprentissage profond (Deep learning) dans divers problèmes de classification et leur robustesse prouvée par rapport aux méthodes conventionnelles. Les performances des modèles existants utilisent des fonctionnalités auditives telles que les coefficients cepstrales de fréquence mel (MFCC) et le spectrogramme Log-Mel (LM) pour entraîner les réseaux de neurones profonds pour la classification sonore de l'environnement (ESC). Dans ce mémoire, nous proposons un réseau neuronal convolutif à 5 couches (CNN) pour l’entraîner sur un ensemble de données audios. On va prouver que les réseaux de neurones convolutifs CNN peuvent être appliqués avec succès dans la classification environnementale sonore (ESC) même avec des ensembles de données limités.fr_FR
dc.language.isofrfr_FR
dc.subjectDeep learning; MFCC; LM; ESC; CNN.fr_FR
dc.titleClassification des événements audio environnementaux à l'aide de réseaux de neurones convolutifs CNNfr_FR
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Mémoire-CNN-B.K-bébio-PDF-Final.pdf2,86 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.