Résumé:
Résumé
Dans cette recherche, nous proposons une nouvelle approche pour améliorer l'efficacité de la détection des drones. Nous introduisons une technique de prétraitement d'image qui utilise des réseaux neuronaux de Transfer Learning (TL), qui se sont révélés efficaces dans diverses tâches de vision par ordinateur. En exploitant les connaissances préalablement acquises à partir de vastes ensembles de données d'images, le TL permet au réseau de s'adapter rapidement et d'apprendre des caractéristiques pertinentes spécifiques à la détection des drones. Cette approche améliore considérablement la précision et la vitesse de détection, la rendant adaptée aux scénarios de surveillance en temps réel. De plus, nous incorporons une séquence de correction de lacet-tangage-roulis dans le pipeline de prétraitement d'image. Les drones peuvent adopter différentes orientations et angles pendant leur vol, ce qui peut affecter leur représentation visuelle dans les images capturées. En appliquant une correction de lacet- tangage-roulis, nous alignons l'orientation du drone, normalisant ainsi l'image et réduisant les erreurs potentielles de détection causées par les perspectives variables. En combinant la puissance des réseaux neuronaux de Transfer Learning avec la séquence de correction de lacet-tangage-roulis, notre méthode proposée vise à atteindre une plus grande efficacité, précision et fiabilité de détection dans les systèmes de détection optique des drones. Les résultats de nos expériences démontrent l'efficacité de cette approche et son potentiel pour améliorer les capacités de surveillance dans des environnements et applications divers.
Abstract
In this research, we propose a novel approach to enhance the efficiency of drone detection. We introduce an image pre-processing technique that utilizes Transfer Learning (TL) neural networks, which have proven to be effective in various computer vision tasks. By leveraging the pre-trained knowledge from large-scale image datasets, TL enables the network to quickly adapt and learn relevant features specific to drone detection. This approach significantly improves the accuracy and speed of detection, making it suitable for real-time surveillance scenarios. Additionally, we incorporate a yaw-pitch-roll correction sequence as part of the image pre-processing pipeline. Drones can exhibit various orientations and angles during flight, which can affect their visual representation in captured images. By applying a yaw-pitch-roll correction, we align the drone's orientation, thereby normalizing the image and reducing potential detection errors caused by varying perspectives. By combining the power of Transfer Learning neural networks with the yaw-pitch-roll correction sequence, our proposed method aims to achieve higher detection efficiency, accuracy, and reliability in optical drone detection systems. The results of our experiments demonstrate the effectiveness of this approach and its potential to enhance surveillance capabilities in diverse environments and applications.