Afficher la notice abrégée
dc.contributor.author |
Kheffi, Zohra |
|
dc.contributor.author |
Ouhaibia, Manel Basma |
|
dc.date.accessioned |
2021-11-22T11:00:50Z |
|
dc.date.available |
2021-11-22T11:00:50Z |
|
dc.date.issued |
2021-10-03 |
|
dc.identifier.uri |
http://di.univ-blida.dz:8080/jspui/handle/123456789/13095 |
|
dc.description |
ill., Bibliogr. |
fr_FR |
dc.description.abstract |
Aujourd’hui les réseaux sociaux représentent un moyen de communication
indispensable, ils permettent la diffusion des différentes informations et nouvelles
dans le monde dans différentes langues.
L’objectif de notre travail est l’analyse des publications sur les réseaux sociaux en
utilisant des techniques de classification de données textuelle selon deux classes :
statuts violents et statuts non violents et cela dans le but de détecter les statuts
violents, de propos raciste et menaçants.
Afin d’atteindre notre objectif, nous proposons deux combinaisons entre les
algorithmes d’apprentissage profond CNN-LSTM et CNN-BILSTM. Ainsi, Pour
régler le problème de déséquilibrage du dataset, nous utilisons une technique de
sur-échantillonnage « Oversampling » dite SMOTE. Une étude expérimentale est
effectuée. Les résultats obtenus montrent l’intérêt des combinaisons proposées.
Mots clé : Apprentissage profond, Classification supervisée, Réseaux sociaux,
Réseaux de neurones, BiLstm, Détection de langage agressive, Corpus
déséquilibré, Oversampling. |
fr_FR |
dc.language.iso |
fr |
fr_FR |
dc.publisher |
Université Blida 1 |
fr_FR |
dc.subject |
Apprentissage profond |
fr_FR |
dc.subject |
Classification supervisée |
fr_FR |
dc.subject |
Réseaux sociaux |
fr_FR |
dc.subject |
Réseaux de neurones |
fr_FR |
dc.subject |
BiLstm |
fr_FR |
dc.subject |
Détection de langage agressive |
fr_FR |
dc.subject |
Corpus déséquilibré |
fr_FR |
dc.subject |
Oversampling |
fr_FR |
dc.title |
Analyse des publications dans les réseaux sociaux par apprentissage profond |
fr_FR |
dc.type |
Thesis |
fr_FR |
Fichier(s) constituant ce document
Ce document figure dans la(les) collection(s) suivante(s)
Afficher la notice abrégée