Afficher la notice abrégée
| dc.contributor.author |
Bennanni, Zakaria |
|
| dc.contributor.author |
Khour, Khadidja |
|
| dc.date.accessioned |
2021-02-23T10:00:57Z |
|
| dc.date.available |
2021-02-23T10:00:57Z |
|
| dc.date.issued |
2020 |
|
| dc.identifier.uri |
http://di.univ-blida.dz:8080/jspui/handle/123456789/10105 |
|
| dc.description |
4.621.1.795 ; 95 p ;illustré |
fr_FR |
| dc.description.abstract |
Avec la popularité de l'utilisation de modèles basés sur l'apprentissage
profond (Deep learning) dans divers problèmes de classification et leur robustesse
prouvée par rapport aux méthodes conventionnelles. Les performances des modèles
existants utilisent des fonctionnalités auditives telles que les coefficients cepstrales
de fréquence mel (MFCC) et le spectrogramme Log-Mel (LM) pour entraîner les
réseaux de neurones profonds pour la classification sonore de l'environnement (ESC).
Dans ce mémoire, nous proposons un réseau neuronal convolutif à 5 couches (CNN)
pour l’entraîner sur un ensemble de données audios. On va prouver que les réseaux
de neurones convolutifs CNN peuvent être appliqués avec succès dans la classification
environnementale sonore (ESC) même avec des ensembles de données limités. |
fr_FR |
| dc.language.iso |
fr |
fr_FR |
| dc.subject |
Deep learning; MFCC; LM; ESC; CNN. |
fr_FR |
| dc.title |
Classification des événements audio environnementaux à l'aide de réseaux de neurones convolutifs CNN |
fr_FR |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée