Résumé:
Le domaine du traitement de l'image évolue rapidement, stimulé par les avancées
technologiques en information et communication. En médecine, cette évolution a transformé les
pratiques diagnostiques grâce à l'imagerie médicale, permettant une exploration détaillée des
organes humains. Cependant, cela génère une immense quantité de données d'imagerie, posant
des défis d'intégration et d'interprétation.
La fusion multimodale, essentielle en imagerie médicale, combine des images issues de
différentes techniques (IRM, TDM, TEP) pour créer une image fusionnée intégrant des
caractéristiques anatomiques et fonctionnelles distinctes, visant à améliorer la précision
diagnostique et la prise en charge thérapeutique. Cette approche présente des défis, notamment
en termes de synchronisation et de cohérence des images.
Dans ce contexte, notre étude a développé une méthode de fusion basée sur des
techniques d'apprentissage profond, simplifiant et accélérant l'intégration des images de sources
diverses en une seule image composite. Cette approche a été rigoureusement évaluée à travers
des analyses qualitatives et quantitatives, incluant une évaluation par des experts médicaux. Les
résultats démontrent que notre algorithme améliore significativement la qualité et l'utilité des
images fusionnées pour le diagnostic médical.
Mots-clés : Imagerie médicale, Apprentissage profond, fusion multimodale, diagnostic précis, IRM, TDM, TEP.