Veuillez utiliser cette adresse pour citer ce document :
https://di.univ-blida.dz/jspui/handle/123456789/3365
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | Boussouat, Nesrine; Rahmouni (promoteur); Benouared, Abdelhalim (promoteur) | |
dc.date.accessioned | 2019-11-24T09:25:37Z | |
dc.date.available | 2019-11-24T09:25:37Z | |
dc.date.issued | 2012 | |
dc.identifier.uri | http://di.univ-blida.dz:8080/jspui/handle/123456789/3365 | |
dc.description | 68 p. ; ill.+1 cd rom.- Mémoire d’ingénieur d’état en Aéronautique option Installation.-Numéro de Thèse 032/2012 | fr_FR |
dc.description.abstract | Résumé A bord des avions, la parole permet au pilote d’avoir à sa disposition un moyen supplémentaire d’interaction avec la machine, la reconnaissance automatique de la parole nécessite un traitement du signal et la paramètrisation pour extraire les coefficients MFCC (coefficients cepstraux) qui seront le patron d’entrée pour l’apprentissage d’un réseau neurones, afin de fournir une performance comparable à l’expert humain on a utilisé un réseau de neurone. Abstract On the aircraft board, the speech allows the pilot to have an additional and available means of interaction with the machine, the automatic speech recognition requires a signal processing and parameterization to extract MFCC coefficients that will be the pattern input for training a neural network, but to provide a performance comparable to human expert, a neurone network is used. | fr_FR |
dc.language.iso | fr | fr_FR |
dc.publisher | Université Blida 01 | fr_FR |
dc.subject | RAP (Reconnaissance automatique de la parole ); Réseaux de neurone | fr_FR |
dc.title | Utilisation des réseaux de neurone pour la reconnaissance automatique de la parole | fr_FR |
dc.type | Thesis | fr_FR |
Collection(s) : | ingénieur d'etat |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
032-2012.pdf | 3,14 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.