Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/26036
Titre: Développement d’un modèle basé sur le Machine Learning pour la reconnaissance d’activité humaine
Autre(s) titre(s): Application au domaine de la santé
Auteur(s): Flita, Hana
Zenkhri, Meriem
Cheriguene, Soraya (promotrice)
Zerouali, Zeyneb ( Encadrante)
Mots-clés: Reconnaissance d’activité humaine
apprentissage automatique
apprentissage profond
Date de publication: 9-jui-2023
Editeur: Université Blida 1
Résumé: Avec l’avènement des objets connectés, les systèmes de reconnaissance d’activité humaine sont devenus un ensemble d’outils informatiques qui cherchent à identifier les activités quotidiennes d’un individu dans le but d’améliorer sa qualité de vie. Ceci constitue l’objectif de notre projet. Ce mémoire se concentre sur la reconnaissance d’activité humaine en utilisant le dataset mHealth, qui fournit des données précieuses sur les signaux de capteurs portables pour différentes activités. L’objectif principal de cette étude est de développer un modèle de classification efficace pour prédire les activités humaines à partir de ces données, nous avons étudié et comparé deux approches principales : l’apprentissage automatique. Pour l’apprentissage automatique nous avons utilisé quatre algorithmes populaires : les forêts aléatoires, machine à vecteurs de support, K-plus proches voisins, les arbres de décision ainsi que la combinaison des trois derniers. En ce qui concerne l’apprentissage profond, nous avons utilisé des réseaux neuronaux convolutifs (CNN) ainsi que des réseaux récurrents (BiLSTM et LSTM). Mots Clés : Reconnaissance d’activité humaine , apprentissage automatique, apprentissage profond
Description: ill., Bibliogr. Cote:ma-004-974
URI/URL: https://di.univ-blida.dz/jspui/handle/123456789/26036
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
Flita Hana et Zenkhri Meriem.pdf2,39 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.