Veuillez utiliser cette adresse pour citer ce document :
https://di.univ-blida.dz/jspui/handle/123456789/10137
Affichage complet
Élément Dublin Core | Valeur | Langue |
---|---|---|
dc.contributor.author | ATTOUMI, DALIL | - |
dc.contributor.author | DEBBARI, AMAR | - |
dc.date.accessioned | 2021-02-24T08:45:48Z | - |
dc.date.available | 2021-02-24T08:45:48Z | - |
dc.date.issued | 2020 | - |
dc.identifier.uri | http://di.univ-blida.dz:8080/jspui/handle/123456789/10137 | - |
dc.description | 4.621.1.823 ;74p ;illustré | fr_FR |
dc.description.abstract | La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine de comprendre ce qu'elle «voit » lorsqu'on la connecte à une ou plusieurs caméras. Elle peut servir entre autre à la reconnaissance de formes, qui consiste à reconnaitre une forme dans une image après l’avoir enregistrée. Ce projet traite la détection et le suivi d’objets mobiles dans un environnement dynamique, en utilisant une caméra et un convoyeur qui déplace des objets. Il a pour objectif la détection des objets mobiles dans une scène par une analyse de leurs déplacements apparents dans les images, et compter ces objets après un prétraitement, moyennant une programmation par MATLAB. Ce sujet représente un défi important imposé par le moyen d’acquisition qui nécessite une faible résolution pour faire fonctionner l’application en temps réel, et l’environnement dont l’éclairage qui n’est pas toujours stable. | fr_FR |
dc.language.iso | fr | fr_FR |
dc.subject | Convoyeur, Caméra CCD, Détection des Objets, Comptage d’objets, variateur de vitesse , moteur Programmation par MATLAB. | fr_FR |
dc.title | Comptage et tri automatique d’objets placés sur un convoyeur en temps réel en utilisant la vision artificielle | fr_FR |
Collection(s) : | Mémoires de Master |
Fichier(s) constituant ce document :
Fichier | Description | Taille | Format | |
---|---|---|---|---|
pdf.pdf | 8,1 MB | Adobe PDF | Voir/Ouvrir |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.