Université Blida 1

Fusion de données multisensorielle pour la perception d’un robot mobile

Afficher la notice abrégée

dc.contributor.author Messaoudi, Abdelkrim
dc.date.accessioned 2019-10-29T09:06:38Z
dc.date.available 2019-10-29T09:06:38Z
dc.date.issued 2013
dc.identifier.uri http://di.univ-blida.dz:8080/xmlui/handle/123456789/1754
dc.description 4.621.1.206 ; 94 illustré ; 30 cm fr_FR
dc.description.abstract : Notre travail porte sur le développement de méthodes de fusion de données multisensorielle pour la perception du robot mobile ATRV2. Dans ce cadre, deux approches basées respectivement sur la théorie de l’évidence et sur la théorie de Bayes sont présentées et comparée. Elles permettent toutes deux au robot mobile de construire sa carte de l’environnement à partir de données issues de ses capteurs embarqués US et caméras. Le modèle de l’environnement que nous avons présenté est un modèle métrique basé sur les grilles de certitude. Mots clés : Fusion de données; Théorie de l’évidence ; Théorie de bayes ; Robot fr_FR
dc.language.iso fr fr_FR
dc.publisher Univ Blida1 fr_FR
dc.subject Fusion de données; Théorie de l’évidence fr_FR
dc.title Fusion de données multisensorielle pour la perception d’un robot mobile fr_FR


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée

Chercher dans le dépôt


Recherche avancée

Parcourir

Mon compte