Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/13364
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.authorMoudjbeur, Nour el Houda-
dc.contributor.authorMaamri, Asmaa-
dc.date.accessioned2021-12-02T09:06:51Z-
dc.date.available2021-12-02T09:06:51Z-
dc.date.issued2021-
dc.identifier.urihttp://di.univ-blida.dz:8080/jspui/handle/123456789/13364-
dc.descriptionill., Bibliogr.fr_FR
dc.description.abstractLa classification automatique de textes connaît ces derniers temps un fort regain d’intérêt. Cela est dû essentiellement à la forte croissance des documents numériques disponibles et à la nécessité de les organiser de façon rapide. Dans ce travail nous abordons le problème de la classification des textes arabes. Nous avons développé trois modèles basés sur l’apprentissage profond. Le premier est un modèle LSTM que nous avons considéré comme modèle de base, le deuxième est un modèle BILSTM et le dernier est un modèle GRU. Les trois modèles utilisent plusieurs méthodes de représentations de textes comme la représentation en ngrams ou la représentation en word2vec. Les tests ont montrés que le modèle BILSTM a donné de bons résultats en termes de précision de la classification. Mots clés : Classification textes arabes, Deep learning , Dataset, méthode de représentation, modèle de l’apprentissage profond, réseau de neurone récurent.fr_FR
dc.language.isofrfr_FR
dc.publisherUniversité Blida 1fr_FR
dc.subjectClassification textes arabesfr_FR
dc.subjectDeep learningfr_FR
dc.subjectDatasetfr_FR
dc.subjectméthode de représentationfr_FR
dc.subjectmodèle de l’apprentissage profondfr_FR
dc.subjectréseau de neurone récurentfr_FR
dc.titleLa classification des textes arabes en utilisant l’apprentissage profondfr_FR
dc.typeThesisfr_FR
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Moudjbeur Nour el Houda et Maamri Asmaa.pdf2,92 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.