Veuillez utiliser cette adresse pour citer ce document :
https://di.univ-blida.dz/jspui/handle/123456789/4431
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | Hamadouche, Maamar | - |
dc.date.accessioned | 2020-01-07T14:24:13Z | - |
dc.date.available | 2020-01-07T14:24:13Z | - |
dc.date.issued | 2008 | - |
dc.identifier.citation | blida | fr_FR |
dc.identifier.uri | http://di.univ-blida.dz:8080/jspui/handle/123456789/4431 | - |
dc.description | bibliogr. 104p. 4 CD ill. | fr_FR |
dc.description.abstract | Dans ce travail, Nous présentons les techniques d'analyse du signal vocal les plus répandus actuellement dans le domaine de la Reconnaissance Automatique de la Parole (RAP) telle que la technique des coefficients MFCC (Mel Frequency Cepstrale Coefficients); cepstrale, le calcul par prédiction linéaire LPC (Linear Predictive Coding) et l'analyse par spectrogrammes;. Nous verrons aussi les méthodes de reconnaissance ou de comparaison qui sont utilisées étroitement avec celles que nous avons citées pour élaborer un Système de RAP (SRAP). Citons à titre d'exemple les modèles de Markov cachés MMC (HMM pour Hidden Markov Models) et l'alignement temporel dynamique DTW (Dynamic Time Warping). Nous introduisons ensuite notre Système de Reconnaissance Automatique des dix premiers chiffres de l'Arabe Standard ARAD (Automatic Recognition of Arabic Digits). Les résultats obtenus montrent que le système présente un taux de reconnaissance de 96% sur les trois corpus que | fr_FR |
dc.language.iso | fr | fr_FR |
dc.publisher | univ-blida1 | fr_FR |
dc.subject | Arabe Standard | fr_FR |
dc.subject | Techniques d'Analyse | fr_FR |
dc.title | Techniques d'analyse en vue de la reconnaissance automatique de la parole | fr_FR |
dc.type | Thesis | fr_FR |
Collection(s) : | Thèse de Magister |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
32-004-19-1.pdf | 2,82 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.