Veuillez utiliser cette adresse pour citer ce document : https://di.univ-blida.dz/jspui/handle/123456789/9536
Affichage complet
Élément Dublin CoreValeurLangue
dc.contributor.advisorBecila, Amira
dc.contributor.authorBala, M. ( Promoteur)
dc.date.accessioned2021-02-02T09:06:55Z
dc.date.available2021-02-02T09:06:55Z
dc.date.issued2012-09-18
dc.identifier.urihttp://di.univ-blida.dz:8080/jspui/handle/123456789/9536
dc.descriptionill.,Bibliogr.fr_FR
dc.description.abstractCe mémoire consiste en la mise en oeuvre du processus ETL dans un environnement Hadoop Hive. Cet environnement est destiné aux applications distribuées et à la gestion intensive des données. Il permet aux applications de travailler avec des milliers de noeuds et des pétaoctets de données. Pour performer et accélérer les différentes tâches du processus ETL à savoir l'extraction, la transformation et le chargement des données dans un entrepôt, nous lui appliquons l'algorithme MapReduce qui est le plus adapté pour le calcul parallèle et distribué de données potentiellement très volumineuses. Notre environnement dispose d'une implementation complète du paradigme MapReduce. Mots clés : Entrepôt de données, processus ETL, MapReduce, Cloud Computing, Hadoop, Hive, Sqoop, HDFS.fr_FR
dc.language.isofrfr_FR
dc.publisherUniversité Blida 1fr_FR
dc.subjectEntrepôt de données.fr_FR
dc.subjectprocessus ETL.fr_FR
dc.subjectMapReduce.fr_FR
dc.subjectCloud Computing.fr_FR
dc.subjectHadoop.fr_FR
dc.subjectHive.fr_FR
dc.subjectSqoop.fr_FR
dc.subjectHDFS.fr_FR
dc.titleMise en oeuvre d'un Processus ETL dans un environnement Hadoop Hive.fr_FR
dc.typeThesisfr_FR
Collection(s) :Mémoires de Master

Fichier(s) constituant ce document :
Fichier Description TailleFormat 
becila amira.pdf41,03 MBAdobe PDFVoir/Ouvrir


Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.