Riassunto analitico
Negli ultimi anni, i veicoli aerei senza equipaggio (UAV) sono diventati sempre più accessibili ed economici, portando ad un crescente interesse sulle loro potenziali applicazioni. Un'area di ricerca che si è rivelata promettente riguarda lo sviluppo di di nanodroni, cioè piccoli droni, e leggeri, che possono svolgere una vasta gamma di compiti. Tuttavia, progettare questi droni in modo che possano navigare in modo autonomo senza affidarsi al GPS o ad altri sensori esterni rappresenta una sfida significativa. Questa tesi affronta questo problema teorizzando una pipeline di odometria visiva che consente a un drone dotato di telecamera di stimare il proprio movimento basandosi su caratteristiche estratte dall'ambiente. La nostra pipeline utilizza una monocamera ed è pensata per un basso costo computazionale e utilizzo di memoria, rendendola adatta per l'implementazione su piattaforme leggere e con risorse limitate. Abbiamo utilizzato il matcher brute force per le corrispondenze delle caratteristiche, l'algoritmo a 8 punti per stimare la matrice essenziale e l'algoritmo p3p lambdatwist per trovare la posizione. Infine sono stati eseguiti alcuni paragoni con le implementazioni fornite dalla libreria di computer vision open-source OpenCV. Seppur non ancora completamente portata sul drone, i risultati dei nostri test eseguiti in contesto desktop mostrano che la pipeline è efficace nello stimare il movimento simulato del drone in tempo reale, rendendola una soluzione promettente per la navigazione su piattaforme con risorse limitate.
|
Abstract
In recent years, unmanned aerial vehicles (UAVs) have become increasingly affordable and
accessible, leading to a growing interest in their potential applications. One promising area of
research involves the development of nano-sized drones, which are small, lightweight drones
that can perform a wide range of tasks. However, designing these drones to navigate
autonomously without relying on GPS or any other external sensors is a significant challenge.
This thesis addresses this problem by developing a visual odometry pipeline that allows a
camera-equipped drone to estimate its own motion based on the movement of visual features
in the environment . Our pipeline uses a single-camera and is optimized for low
computational cost and memory usage, making it suitable for deployment on lightweight and
resource-constrained platforms. We used the Brute Force matcher for feature matching, the
eight-point algorithm for estimating the Essential matrix and the P3P algorithm Lambda Twist
to solve the perspective-n-point problem. We compared the accuracy of our pipeline with
alternative implementations of those algorithm provided by the open-source computer vision
library OpenCV. Since the pipeline is not yet completely deployed to the drone, the tests were executed on a desktop environment.
The results show that our pipeline is effective in accurately estimate the
drone’ simulated motion in real-time, making it a promising solution for navigation on resource-constrained platforms.
|