Please use this identifier to cite or link to this item: http://localhost:8080/xmlui/handle/123456789/25248
Full metadata record
DC FieldValueLanguage
dc.contributor.authorAbdiche, Imene-
dc.contributor.authorDerder, Narimane-
dc.contributor.authorKameche, A.H. (Promoteur)-
dc.date.accessioned2023-10-04T13:18:56Z-
dc.date.available2023-10-04T13:18:56Z-
dc.date.issued2023-06-
dc.identifier.urihttps://di.univ-blida.dz/jspui/handle/123456789/25248-
dc.descriptionill., Bibliogr. Cote:ma-004-949fr_FR
dc.description.abstractAu fil des années, l'utilisation croissante de modèles 3D dans diverses industries, telles que la réalité virtuelle et l'architecture, a suscité un intérêt croissant pour la génération de formes 3D. Cependant, la conception et la création de formes 3D précises et réalistes peuvent être coûteuses en termes de temps et de ressources. Dans notre projet, nous avons cherché à minimiser ces coûts et à simplifier le processus en explorant la génération de formes 3D à partir de descriptions textuelles. Pour ce faire, nous avons utilisé une variante des réseaux de neurones antagonistes génératifs (CGAN), ainsi que le modèle d'AutoEncodeur et un modèle Transformer pré-entraîné pour traiter les entrées textuelles. Nos modèles ont été entraînés et évalués en utilisant le jeu de données "ShapeNet", qui contient des informations sur des objets tels que des tables et des chaises. Mots clé: Génération de formes 3D, descriptions textuelles, CGAN, Auto-Encoder, Transformer, ShapeNet.fr_FR
dc.language.isofrfr_FR
dc.publisherUniversité Blida 1fr_FR
dc.subjectGénération de formes 3Dfr_FR
dc.subjectdescriptions textuellesfr_FR
dc.subjectCGAN, Auto-Encoderfr_FR
dc.subjectTransformerfr_FR
dc.subjectShapeNetfr_FR
dc.titleApproche de Génération Des Formes 3D À Partir Des Descriptions Textuelles en LLMfr_FR
dc.typeThesisfr_FR
Appears in Collections:Mémoires de Master

Files in This Item:
File Description SizeFormat 
Abdiche Imene et Derder Narimane.pdf2,94 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.